Un grupo de científicos descubrió que nuestros cerebros tienen una función de "autocorrección" que desplegamos cuando reinterpretamos sonidos ambiguos. Sus hallazgos, que aparecen en el Journal of Neuroscience, apuntan a nuevas formas en que usamos la información y el contexto paraayuda en la comprensión del habla.
"Lo que una persona piensa que escucha no siempre coincide con las señales reales que llegan al oído", explica Laura Gwilliams, candidata a doctorado en el Departamento de Psicología de la Universidad de Nueva York, investigadora del Laboratorio de Neurociencia del Lenguaje en la Universidad de Nueva York en Abu Dhabi, y elautor principal del artículo. "Esto se debe a que, según sugieren nuestros resultados, el cerebro reevalúa la interpretación de un sonido de voz en el momento en que se escucha cada sonido de voz posterior para actualizar las interpretaciones según sea necesario.
"Sorprendentemente, nuestra audición puede verse afectada por el contexto que ocurre hasta un segundo después, sin que el oyente se dé cuenta de esta percepción alterada".
"Por ejemplo, un sonido inicial ambiguo, como 'b' y 'p', se escucha de una forma u otra dependiendo de si ocurre en la palabra 'perico' o 'barricada'", agrega Alec Marantz, investigador principaldel proyecto, profesor en los departamentos de Lingüística y Psicología de la Universidad de Nueva York y codirector del Laboratorio de Neurociencia del Lenguaje de la Universidad de Nueva York en Abu Dhabi, donde se realizó la investigación. "Esto sucede sin una conciencia consciente de la ambigüedad, a pesar de que la información no ambigua"t ven hasta la mitad de la tercera sílaba "
Ejemplos de estos estímulos: http://lauragwilliams.github.io/postdiction_stimuli .
El estudio, el primero en revelar cómo el cerebro usa la información recopilada después de detectar un sonido inicial para ayudar a la comprensión del habla, también incluyó a David Poeppel, profesor de Psicología y Ciencias Neurales, y Tal Linzen, profesor asistente en JohnsDepartamento de Ciencias Cognitivas de la Universidad de Hopkins.
Es bien sabido que la percepción de un sonido del habla está determinada por su contexto circundante, en forma de palabras, oraciones y otros sonidos del habla. En muchos casos, esta información contextual se escucha más tarde que la entrada sensorial inicial.
Esto se desarrolla en la vida cotidiana: cuando hablamos, el discurso real que producimos a menudo es ambiguo. Por ejemplo, cuando una amiga dice que tiene una "abolladura" en su automóvil, es posible que escuche "carpa".este tipo de ambigüedad ocurre regularmente, nosotros, como oyentes, apenas somos conscientes de ello.
"Esto se debe a que el cerebro resuelve automáticamente la ambigüedad para nosotros: elige una interpretación y eso es lo que percibimos escuchar", explica Gwilliams. "La forma en que el cerebro hace esto es mediante el uso del contexto circundante para reducir las posibilidadesde lo que el hablante puede querer decir "
en el Revista de Neurociencia estudio, los investigadores trataron de comprender cómo el cerebro usa esta información posterior para modificar nuestra percepción de lo que escuchamos inicialmente.
Para hacer esto, realizaron una serie de experimentos en los que los sujetos escucharon sílabas aisladas y palabras que sonaban de manera similar p. Ej., Barricada, perico. Para medir la actividad cerebral de los sujetos, los científicos desplegaron magnetoencefalografía MEG,Una técnica que mapea el movimiento neuronal mediante el registro de campos magnéticos generados por las corrientes eléctricas producidas por nuestro cerebro.
Sus resultados arrojaron tres hallazgos principales :
"Lo interesante es el hecho de que este contexto puede ocurrir después de que se interpretan los sonidos y aún así usarse para alterar cómo se percibe el sonido", agrega Gwilliams.
Por ejemplo, el mismo sonido se percibirá como "k" al comienzo de "beso" y "g" al comienzo de "regalo", aunque la diferencia entre las palabras "ss" vs. "ft" vienen después del sonido ambiguo
"Específicamente, encontramos que el sistema auditivo mantiene activamente la señal acústica en la corteza auditiva, mientras que al mismo tiempo hace conjeturas sobre la identidad de las palabras que se dicen", dice Gwilliams. "Dicha estrategia de procesamiento permite que el contenido del mensaje sease accedió rápidamente, al tiempo que permitió un nuevo análisis de la señal acústica para minimizar los errores de audición ".
Esta investigación fue apoyada por el NYU Abu Dhabi Research Institute G1001, el Consejo Europeo de Investigación ERC-2011-AdG 295810 BOOTPHON, la Agencia Nacional de Investigación de Francia ANR-10-IDEX-0001-02 PSL, ANR-10-LABX-0087 IEC, y los Institutos Nacionales de Salud 2R01DC05660.
Fuente de la historia :
Materiales proporcionados por Universidad de Nueva York . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :