Un equipo de investigadores de la Universidad de Brown ha utilizado una interfaz cerebro-computadora para reconstruir palabras en inglés a partir de señales neuronales registradas en el cerebro de primates no humanos. La investigación, publicada en la revista Biología de comunicaciones de la naturaleza , podría ser un paso hacia el desarrollo de implantes cerebrales que pueden ayudar a las personas con pérdida auditiva, dicen los investigadores.
"Lo que hemos hecho es registrar los patrones complejos de excitación neural en la corteza auditiva secundaria asociada con palabras específicas de audición de los primates", dijo Arto Nurmikko, profesor de la Escuela de Ingeniería de Brown, investigador asociado en el Instituto Carney de Brown.para Brain Science y autor principal del estudio. "Luego usamos esos datos neuronales para reconstruir el sonido de esas palabras con alta fidelidad".
"El objetivo general es comprender mejor cómo se procesa el sonido en el cerebro de los primates", agregó Nurmikko, "que en última instancia podría conducir a nuevos tipos de prótesis neuronales".
Los sistemas cerebrales involucrados en el procesamiento inicial del sonido son similares en humanos y primates no humanos. El primer nivel de procesamiento, que ocurre en lo que se llama corteza auditiva primaria, clasifica los sonidos de acuerdo con atributos como tono o tono. La señalluego se mueve a la corteza auditiva secundaria, donde se procesa aún más. Cuando alguien escucha palabras habladas, por ejemplo, aquí es donde los sonidos se clasifican por fonemas, las características más simples que nos permiten distinguir una palabra de otra., la información se envía a otras partes del cerebro para el procesamiento que permite la comprensión humana del habla.
Pero debido a que el procesamiento temprano del sonido es similar en humanos y primates no humanos, aprender cómo procesan los primates las palabras que escuchan es útil, aunque probablemente no entiendan lo que significan esas palabras.
Para el estudio, dos implantes del tamaño de un guisante con conjuntos de microelectrodos de 96 canales registraron la actividad de las neuronas mientras los macacos rhesus escuchaban grabaciones de palabras individuales en inglés y llamadas de macacos. En este caso, los macacos escucharon uno o dos de manera bastante simple.palabras de sílaba: "árbol", "bueno", "norte", "grillo" y "programa"
Los investigadores procesaron las grabaciones neuronales utilizando algoritmos informáticos desarrollados específicamente para reconocer patrones neuronales asociados con palabras particulares. A partir de ahí, los datos neuronales podrían traducirse nuevamente al habla generada por computadora. Finalmente, el equipo utilizó varias métricas para evaluar qué tan de cercael discurso reconstruido coincidía con la palabra hablada original que escuchó el macaco. La investigación mostró que los datos neuronales grabados producían reconstrucciones de alta fidelidad que eran claras para un oyente humano.
El uso de conjuntos de electrodos múltiples para registrar información auditiva tan compleja fue el primero, dicen los investigadores.
"Anteriormente, el trabajo había reunido datos de la corteza auditiva secundaria con electrodos individuales, pero hasta donde sabemos, esta es la primera grabación multielectrodo de esta parte del cerebro", dijo Nurmikko. "Esencialmente tenemos cerca de 200 puestos de escucha microscópicoseso nos puede dar la riqueza y la mayor resolución de datos que se requiere "
Uno de los objetivos del estudio, para el cual el estudiante de doctorado Jihun Lee dirigió los experimentos, fue probar si algún algoritmo de modelo de decodificación en particular funcionó mejor que otros. La investigación, en colaboración con Wilson Truccolo, un experto en neurociencia computacional, mostró queLas redes neuronales recurrentes RNN, un tipo de algoritmo de aprendizaje automático que se usa a menudo en la traducción computarizada de idiomas, produjeron las reconstrucciones de mayor fidelidad. Los RNN superaron sustancialmente a los algoritmos más tradicionales que han demostrado ser efectivos para decodificar datos neuronales de otras partesdel cerebro
Christopher Heelan, investigador asociado de Brown y coautor principal del estudio, cree que el éxito de los RNN proviene de su flexibilidad, que es importante para decodificar información auditiva compleja.
"Los algoritmos más tradicionales utilizados para la decodificación neural hacen suposiciones sólidas sobre cómo el cerebro codifica la información, y eso limita la capacidad de esos algoritmos para modelar los datos neuronales", dijo Heelan, quien desarrolló el kit de herramientas computacionales para el estudio. "Redes neuronaleshacer suposiciones más débiles y tener más parámetros que les permitan aprender relaciones complicadas entre los datos neuronales y la tarea experimental ".
En última instancia, esperan los investigadores, este tipo de investigación podría ayudar a desarrollar implantes neuronales que podrían ayudar a restaurar la audición de las personas.
"El escenario de aspiración es que desarrollamos sistemas que evitan gran parte del aparato auditivo y van directamente al cerebro", dijo Nurmikko. "Los mismos microelectrodos que utilizamos para registrar la actividad neuronal en este estudio podrían algún día usarse para administrar pequeñoscantidades de corriente eléctrica en patrones que dan a las personas la percepción de haber escuchado sonidos específicos "
La investigación fue apoyada por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. N66001-17-C-4013 y un obsequio privado a Brown.
Fuente de la historia :
Materiales proporcionado por Universidad de Brown . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :