Las personas como el difunto Stephen Hawking pueden pensar en lo que quieren decir, pero no pueden hablar porque sus músculos están paralizados. Para comunicarse, pueden usar dispositivos que perciben los movimientos de los ojos o las mejillas de una persona para deletrear palabrascarta a la vez. Sin embargo, este proceso es lento y poco natural.
Los científicos quieren ayudar a estas personas completamente paralizadas o "encerradas" a comunicarse de manera más intuitiva mediante el desarrollo de una interfaz máquina-cerebro para decodificar los comandos que el cerebro envía a la lengua, el paladar, los labios y la laringe articuladores.
La persona simplemente trataría de decir palabras y la interfaz cerebro-máquina IMC se traduciría en el habla.
Una nueva investigación de Northwestern Medicine y Weinberg College of Arts and Sciences ha acercado la ciencia a la creación de interfaces máquina-habla-cerebro al desbloquear nueva información sobre cómo el cerebro codifica el habla.
Los científicos han descubierto que el cerebro controla la producción del habla de manera similar a cómo controla la producción de movimientos de brazos y manos. Para hacer esto, los investigadores registraron señales de dos partes del cerebro y decodificaron lo que representaban estas señales. Los científicos encontraron el cerebrorepresenta tanto los objetivos de lo que estamos tratando de decir el habla suena como "pa" y "ba" y los movimientos individuales que usamos para lograr esos objetivos cómo movemos nuestros labios, paladar, lengua y laringe.las representaciones ocurren en dos partes diferentes del cerebro.
"Esto puede ayudarnos a construir mejores decodificadores de voz para IMC, lo que nos acercará a nuestro objetivo de ayudar a las personas que están encerradas a hablar de nuevo", dijo el autor principal, el Dr. Marc Slutzky, profesor asociado de neurología y fisiología enNorthwestern University Feinberg School of Medicine y un neurólogo de Northwestern Medicine.
El estudio se publicará el 26 de septiembre en el Revista de Neurociencia .
El descubrimiento también podría ayudar a las personas con otros trastornos del habla, como la apraxia del habla, que se observa en niños y después de un accidente cerebrovascular en adultos. En la apraxia del habla, un individuo tiene dificultades para traducir los mensajes del cerebro al lenguaje hablado.
Cómo se traducen las palabras de su cerebro al habla
El habla se compone de sonidos individuales, llamados fonemas, que se producen por movimientos coordinados de los labios, la lengua, el paladar y la laringe. Sin embargo, los científicos no sabían exactamente cómo el cerebro planifica estos movimientos, llamados gestos articulatorios.En particular, no se entendió completamente cómo la corteza cerebral controla la producción del habla, y no se ha demostrado evidencia de representación de gestos en el cerebro.
"Supusimos la hipótesis de que las áreas motoras del habla del cerebro tendrían una organización similar a las áreas motoras del brazo", dijo Slutzky. "La corteza precentral representaría movimientos gestos de los labios, la lengua, el paladar y la laringe, y eláreas corticales de nivel superior representarían los fonemas en mayor medida "
Eso es exactamente lo que encontraron.
"Estudiamos dos partes del cerebro que ayudan a producir el habla", dijo Slutzky. "La corteza precentral representaba gestos en mayor medida que los fonemas. La corteza frontal inferior, que es un área de habla de nivel superior, representaba tanto los fonemas comogestos "
Conversar pacientes en cirugía cerebral para decodificar sus señales cerebrales
Los científicos del noroeste registraron las señales cerebrales de la superficie cortical utilizando electrodos colocados en pacientes sometidos a cirugía cerebral para extirpar los tumores cerebrales. Los pacientes tenían que estar despiertos durante la cirugía, por lo que los investigadores les pidieron que leyeran palabras desde una pantalla.
Después de la cirugía, los científicos marcaron los momentos en que los pacientes producían fonemas y gestos. Luego utilizaron las señales cerebrales grabadas de cada área cortical para decodificar qué fonemas y gestos se habían producido, y midieron la precisión de la decodificación.la corteza precentral fue más precisa en la decodificación de los gestos que los fonemas, mientras que aquellos en la corteza frontal inferior fueron igualmente buenos en la decodificación de los fonemas y los gestos. Esta información ayudó a apoyar los modelos lingüísticos de producción del habla. También ayudará a los ingenieros en el diseño de interfaces de máquinas cerebrales paradecodificar el habla de estas áreas del cerebro.
El siguiente paso para la investigación es desarrollar un algoritmo para las interfaces cerebro-máquina que no solo decodifique los gestos sino que también combine esos gestos decodificados para formar palabras.
Esta fue una investigación interdisciplinaria, entre campus; los autores incluyeron un neurocirujano, un neurólogo, un informático, un lingüista e ingenieros biomédicos. Además de Slutzky, los autores del noroeste son Emily M. Mugler, Matthew C. Tate neurológicocirugía, Jessica W. Templer neurología y Matthew A. Goldrick lingüística.
El documento se titula "Representación diferencial de gestos articulados y fonemas en circunvoluciones frontales precentrales e inferiores".
Este trabajo fue apoyado en parte por la Doris Duke Charitable Foundation, Northwestern Memorial Foundation Dixon Translational Research Award incluyendo financiamiento parcial del Centro Nacional para el Avance de las Ciencias de la Traducción, UL1TR000150 y UL1TR001422, NIH otorga F32DC015708 y R01NS094748 y National Science Foundation 1321015.
Fuente de la historia :
Materiales proporcionados por Universidad del Noroeste . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :