Aunque la vista es un sentido muy diferente al sonido, los neurocientíficos del Centro Médico de la Universidad de Georgetown han descubierto que el cerebro humano aprende a dar sentido a estos estímulos de la misma manera.
Los investigadores dicen que en un proceso de dos pasos, las neuronas en un área del cerebro aprenden la representación de los estímulos, y otra área categoriza esa entrada para atribuirle significado, como ver primero un automóvil sin techoy luego analizar ese estímulo para ubicarlo en la categoría de "convertible". De manera similar, cuando un niño aprende una nueva palabra, primero tiene que aprender el nuevo sonido y luego, en un segundo paso, aprender a entender que las diferentes versionesacentos, pronunciaciones, etc. de la palabra, hablada por diferentes miembros de la familia o por sus amigos, todos significan lo mismo y deben categorizarse juntos.
"Una ventaja computacional de este esquema es que permite al cerebro construir fácilmente sobre contenido previo para aprender información novedosa", dice el investigador principal del estudio, Maximilian Riesenhuber, PhD, profesor del Departamento de Neurociencia de la Facultad de Medicina de la Universidad de Georgetown.Los coautores del estudio incluyen al primer autor, Xiong Jiang, PhD; el estudiante graduado Mark A. Chevillet; y Josef P. Rauschecker, PhD, todos neurocientíficos de Georgetown.
Su estudio, publicado en neurona , es el primero en proporcionar pruebas sólidas de que el aprendizaje en la visión y la audición sigue principios similares. "Durante mucho tiempo hemos intentado dar sentido a los sentidos, estudiando cómo el cerebro representa nuestro mundo multisensorial", dice Riesenhuber.
En 2007, los investigadores fueron los primeros en describir el modelo de dos pasos en el aprendizaje humano de categorías visuales, y el nuevo estudio ahora muestra que el cerebro parece utilizar el mismo tipo de mecanismos de aprendizaje en todas las modalidades sensoriales.
Los hallazgos también podrían ayudar a los científicos a idear nuevos enfoques para restaurar los déficits sensoriales, dice Rauschecker, uno de los coautores.
"Saber cómo los sentidos aprenden el mundo puede ayudarnos a idear soluciones en nuestros cerebros muy plásticos", dice. "Si una persona no puede procesar una modalidad sensorial, digamos la visión, debido a la ceguera, podría haber dispositivos de sustitución que permitaninformación visual para ser transformada en sonidos. Por lo tanto, un sentido discapacitado sería procesado por otros centros sensoriales del cerebro ".
Los 16 participantes de este estudio fueron entrenados para categorizar las llamadas de comunicación de los monos: sonidos reales que significan algo para los monos, pero que tienen un significado extraño para los humanos. Los investigadores dividieron los sonidos en dos categorías etiquetadas con nombres sin sentido, basados en prototipos dedos categorías: los llamados "arrullos" y "arcos armónicos". Utilizando un sistema de transformación auditiva, los investigadores pudieron crear miles de combinaciones de llamadas de mono a partir de los prototipos, incluidas algunas llamadas muy similares que requerían que los participantes hicieran distinciones precisas entrelas llamadas. Aprender a categorizar correctamente los sonidos de la novela tomó aproximadamente seis horas.
Antes y después del entrenamiento, se obtuvieron datos de resonancia magnética funcional de los voluntarios para investigar los cambios en la sintonización neuronal en el cerebro que fueron inducidos por el entrenamiento de categorización. Técnicas avanzadas de resonancia magnética funcional, adaptación rápida de imágenes de resonancia magnética funcional fMRI-RA y patrón de múltiples vóxelesanálisis, se utilizaron junto con fMRI convencional y análisis de conectividad funcional. De esta manera, los investigadores pudieron ver dos conjuntos distintos de cambios: una representación de las llamadas de mono en la corteza auditiva izquierda y un análisis de sintonización que conduce a la selectividad de categoría para diferentestipos de llamadas en la corteza prefrontal lateral.
"En nuestro estudio, utilizamos cuatro técnicas diferentes, en particular fMRI-RA y MVPA, para proporcionar resultados convergentes de forma independiente y sinérgica. Esto nos permitió obtener resultados sólidos incluso a partir de una muestra pequeña", dice el coautor Jiang.
El procesamiento del sonido requiere discriminación en la acústica y cambios de sintonía a nivel de la corteza auditiva, un proceso que los investigadores dicen que es el mismo entre los sistemas de comunicación humanos y animales. El uso de llamadas de mono en lugar del habla humana obligó a los participantes a categorizar los sonidos puramentesobre la base de la acústica en lugar del significado.
"A un nivel evolutivo, los humanos y los animales deben comprender quién es amigo y quién enemigo, y la vista y el oído son parte integral de estos juicios", dice Riesenhuber.
Fuente de la historia :
Materiales proporcionado por Centro médico de la Universidad de Georgetown . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :