por Richard Alleyne
Corresponsal de Ciencia
08 Septiembre 2010
del Sitio Web
Telegraph

traducción de Adela Kaufmann
Versión original

 

Una máquina que lee la mente está a un paso más cerca de la realidad luego que los científicos descubrieran una forma de traducir los pensamientos de las personas a palabras.




"Máquina para leer la mente" puede convertir los pensamientos en voz
Foto: GETTY IMAGES
 

Los investigadores han sido capaces de traducir las señales del cerebro en voz utilizando sensores colocados en la superficie del cerebro, por primera vez.

El avance, que es hasta un 90 por ciento preciso, ofrece una manera de comunicar se con los pacientes paralizados que no pueden hablar y, eventualmente, podrían conducir a ser capaces de leer los pensamientos de cualquiera.

"Estábamos viéndonos a nosotros mismos con entusiasmo cuando comenzó a funcionar," dijo el profesor Bradley Greger, un bioingeniero de la Universidad de Utah que dirigió al equipo de investigadores.

"Fue uno de los momentos en que todo se juntó.

"Hemos sido capaces de decodificar palabras habladas utilizando sólo las señales del cerebro con un dispositivo que promete un uso a largo plazo en pacientes con parálisis que ahora no pueden hablar.

"Yo diría que es lectura del cerebro y esperamos que en dos o tres años estará disponible para su uso en pacientes con parálisis".

El descubrimiento experimental se produjo cuando el equipo conectó dos rejillas del tamaño de un botón de a 16 pequeños electrodos a los centros del lenguaje del cerebro de un paciente epiléptico. Los sensores estaban unidos a la superficie del cerebro. Al paciente se le había retirado parte de su cráneo para otra operación para tratar su condición.

Usando los electrodos, los científicos registraron las señales del cerebro en una computadora, mientras el paciente leía repetidamente cada una de las 10 palabras que pudieran ser útiles a una persona paralizada:

sí, no, caliente, frío, hambre, sed, hola, adiós, más o menos.

Luego le hicieron repetir las palabras a la computadora, que fue capaz de igualar las señales cerebrales para cada palabra del 76 al 90 por ciento del tiempo. La computadora recogió las ondas cerebrales del paciente mientras hablaba y no utilizó ningún software de reconocimiento de voz.

Porque sólo de pensar en una palabra - sin decirla - se cree que produce las mismas señales del cerebro, el profesor Greger y su equipo creen que pronto podrán tener mecanismo de conversión y la caja de voz que repite la palabra que se está pensando.

Es más, los cerebros de las personas con parálisis a menudo son saludables y producen las mismas señales que las personas en cuerpos sanos - es sólo que están bloqueados de alcanzar el músculo por la lesión.

Los investigadores dijeron que el método necesita mejoras, pero podría con ducir, en unos pocos años a ensayos clínicos en personas paralizadas que no pueden hablar debido al llamado síndrome de enclaustramiento.

"Esta es una prueba de concepto", dijo el profesor Greger, "Hemos demostrado que estas señales pueden decirle lo que la persona está diciendo muy por encima de la casualidad.

"Pero tenemos que ser capaces de hacer más palabras con más precisión antes de que sea algo que pueda resultarle realmente útil a un paciente."

Las personas que eventualmente podrían beneficiarse de un dispositivo inalámbrico que convierta los pensamientos en palabras habladas por computadora incluyen a las personas paralizadas por un accidente cerebrovascular, enfermedades y lesiones, dijo el profesor Greger.

Las personas que ahora están "enclaustradas", a menudo se comunican con cualquier movimiento que puedan hacer - parpadear un ojo o mover un poco la mano - recoger arduamente letras o palabras de una lista.

El nuevo dispositivo que les permite la libertad de hablar por sí mismos.

"Incluso si podemos conseguirles 30 o 40 palabras que realmente le pudieran dar una mejor calidad de vida", dijo el profesor Greger.

"Esto no significa que el problema esté totalmente solucionado y que todos podamos irnos a casa. Esto quiere decir que funciona, y ahora tenemos que perfeccionarlo para que las personas con síndrome de enclaustramiento puedan realmente comunicarse."

El estudio, publicado en el Diario de Ingeniería Neural, utilizó un nuevo tipo de microelectrodos no-penetrantes que se sientan en el cerebro sin tenerlos que meter en él.

  • El primero fue adjuntado a la corteza motora de la cara, que controla el movimiento facial y está en la parte superior izquierda del cerebro.

  • El segundo fue adjuntado al área de Wernicke, un área justo por encima de la oreja izquierda que actúa como una especie de traductor de idiomas para el cerebro.

Debido a que los microelectrodos no penetran en la materia cerebral, son considerados seguros para colocar en las áreas de lenguaje del cerebro - algo que no se puede hacer con los electrodos que penetran, que han sido utilizados en dispositivos experimentales para ayudarle a las personas paralizadas a controlar un cursor de ordenador o un brazo artificial.

Los investigadores fueron más exactos - el 85 por ciento - para distinguir señales del cerebro para una palabra, de aquellas para otra, cuando utilizan las señales registradas en la corteza motora facial.

Éstas fueron menos precisas – por un 76 por ciento - cuando se utilizaron señales del área de Wernicke.

El año pasado, el profesor Greger y sus colegas publicaron un estudio mostrando electrodos que podrían "leer" las señales cerebrales que controlaban los movimientos del brazo.