Los neurocientíficos de la Universidad de California en San Francisco han descubierto cómo el cerebro que escucha escanea el discurso para descomponerlo en sílabas. Los hallazgos proporcionan por primera vez una base neuronal para los átomos fundamentales del lenguaje y las ideas sobre nuestra percepción de la poesía rítmica del habla.
Durante décadas, los neurocientíficos del habla han buscado evidencia de que las neuronas en las áreas auditivas del cerebro usan fluctuaciones en el volumen del habla para identificar los comienzos y los finales de las sílabas, como un lin-guis-tics pro-fes-sor di-a-gram-haciendo una oración. Hasta ahora, estos esfuerzos han tenido poca suerte.
En el nuevo estudio, publicado el 20 de noviembre de 2019 en Avances científicos , los científicos de la UCSF descubrieron que el cerebro en cambio responde a un marcador de estrés vocal en el medio de cada sílaba, más como un poeta escaneando los sonetos de Shakespeare ¿Shàll Í còmpáre theè tó à súmmèrs dáy?. Los investigadores mostraron queesta señal, en un área de la corteza del habla llamada circunvolución temporal superior media mSTG, se basa específicamente en el aumento del volumen al comienzo de cada sonido vocal, que es una característica universal de los idiomas humanos.
En particular, dicen los autores, este simple marcador silábico también podría proporcionar al cerebro información directa sobre patrones de estrés, tiempo y ritmo que son tan centrales para transmitir significado y contexto emocional en inglés y muchos otros idiomas.
"Lo que me parece más emocionante de este trabajo es que muestra un principio de codificación neural simple para el sentido del ritmo que es absolutamente fundamental para cómo nuestro cerebro procesa el habla", dijo la neurocientífica Yulia Oganian, PhD, quien dirigió la nueva investigación."¿Podría esto explicar por qué los humanos son tan sensibles a la secuencia de sílabas estresadas y no estresadas que componen la poesía hablada, o incluso la narración oral?"
Oganian es investigador postdoctoral en el laboratorio del neurocirujano de salud de UCSF Eddie Chang, MD, PhD, investigador biomédico Bowes de UCSF, miembro del Instituto de Neurociencias Weill de UCSF, y profesor académico del Instituto Médico Howard Hughes HHMI, cuya investigaciónel laboratorio estudia las bases neuronales del habla, el movimiento y las emociones humanas.
"Lo que realmente me emociona es que ahora entendemos cómo una simple señal sonora, el rápido aumento de la intensidad sonora que aparece al inicio de las vocales, sirve como un hito crítico para el habla porque le dice al oyente cuándo ocurre una sílaba y siestá estresado. Este es un descubrimiento bastante central sobre cómo el cerebro extrae unidades de sílabas del habla ", dijo Chang.
El estudio involucró a voluntarios del Centro de Epilepsia de UCSF que temporalmente tuvieron arreglos de electrodos del tamaño de una nota colocados en la superficie de sus cerebros durante una o dos semanas como parte de la preparación estándar para la neurocirugía. Estas grabaciones cerebrales permiten neurocirujanos comoChang trazará cómo eliminar el tejido cerebral que causa las convulsiones de los pacientes sin dañar las regiones cerebrales cercanas importantes, pero también permite que los científicos del laboratorio de investigación de neurociencia de Chang hagan preguntas sobre la función cerebral humana que son imposibles de abordar de otra manera.
Oganian reclutó a 11 voluntarios cuyos electrodos de mapeo de convulsiones se superponían con áreas del cerebro involucradas en el procesamiento del habla y que estaban felices de participar en un estudio de investigación durante su tiempo de inactividad en el hospital. Interpretó a cada participante una selección de discursograbaciones de una variedad de diferentes hablantes mientras grababan patrones de actividad cerebral en sus centros auditivos del habla, luego analizaban los datos para identificar patrones neuronales que reflejaban la estructura silábica de lo que habían escuchado.
Los datos revelaron rápidamente que la actividad mSTG contenía un marcador discreto de sílabas individuales, lo que contradice el modelo dominante en el campo que había propuesto que el cerebro establezca un oscilador continuo similar a un metrónomo para extraer los límites de las sílabas de las fluctuaciones en el volumen del habla. Pero¿exactamente a qué aspectos del discurso respondían estos marcadores de sílabas discretas en los datos neuronales?
Para hacer posible identificar qué características de las grabaciones de audio estaban impulsando los marcadores de sílabas recién descubiertos, Oganian pidió a cuatro de sus voluntarios de investigación que escucharan el discurso grabado que se ralentizó cuatro veces. Estas grabaciones de voz ultra lentas permitieronOganian ve que las señales de la sílaba se producían consistentemente en el momento del aumento de la tensión al comienzo de cada sonido vocal por ejemplo, cuando 'b' se convierte en 'a' en la sílaba 'ba', y no en el pico de cada sílaba comootros científicos habían teorizado.
El marcador silábico que descubrió Oganian en el mSTG también varió con el énfasis que el hablante puso en una sílaba particular. Esto sugirió que esta primera etapa del procesamiento del habla simultáneamente permite al cerebro dividir el habla en unidades silábicas y también rastrear los patrones de estrésque son críticos para el significado en inglés y en muchos otros idiomas por ejemplo, "consola de computadora" vs. "consola de un amigo"; "¿Hice eso?" vs. "¿Hice eso?".
La señal silábica también proporciona un metrónomo simple para que el cerebro rastree el ritmo y la velocidad del habla ". Algunas personas hablan rápido; otras hablan despacio. Las personas cambian la rapidez con que hablan cuando están emocionadas o tristes. El cerebro necesita estarcapaz de adaptarse a eso ", dijo Oganian." Al marcar cada vez que se está produciendo una nueva sílaba, esta señal actúa como un marcapasos interno dentro de la señal del habla ".
Los investigadores continúan estudiando cómo se interpretan las señales cerebrales en el mSTG para permitir que el cerebro procese la ritmicidad y el significado del habla. También esperan explorar cómo la interpretación del cerebro de estas señales varía en otros idiomas además del inglés que ponen más o menosénfasis en los patrones de estrés del habla.
Fuente de la historia :
Materiales proporcionado por Universidad de California - San Francisco . Original escrito por Nicholas Weiler. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :