Ver no siempre es creer: el habla visual movimientos de la boca que no coincide con el habla auditiva sonidos puede dar lugar a la percepción de un mensaje completamente diferente. Esta ilusión misteriosa se conoce como el efecto McGurk. En una nueva investigación, publicada en PLOS Biología Computacional , los investigadores en neurociencia han creado un algoritmo para revelar información clave sobre por qué el cerebro a veces puede confundir uno de los aspectos más fundamentales de la experiencia humana.
Los hallazgos serán útiles para comprender a los pacientes con déficit de percepción del habla y para construir computadoras capaces de comprender el habla auditiva y visual.
"Todos los humanos crecen escuchando decenas de miles de ejemplos de habla, con el resultado de que nuestros cerebros contienen un mapeo exhaustivo de la probabilidad de que cualquier par de movimientos de la boca y sonidos del habla vayan juntos", dijo el Dr. Michael Beauchamp, profesorde neurocirugía en el Baylor College of Medicine y autor principal del artículo con John Magnotti, investigador postdoctoral en Baylor. "En las situaciones cotidianas con frecuencia nos enfrentamos a múltiples conversadores que emiten señales auditivas y visuales del habla, y el cerebro debe decidir si desea o nointegrar una combinación particular de voz y cara "
"Aunque nuestros sentidos están constantemente bombardeados con información, nuestro cerebro selecciona sin esfuerzo el discurso verbal y no verbal de nuestros compañeros de conversación de esta cacofonía", dijo Magnotti.
El efecto McGurk es un ejemplo de cuando esto sale mal. Ocurre cuando los movimientos de la boca que se ven pueden anular lo que se escucha, haciendo que una persona perciba un sonido diferente al que realmente se está diciendo. Solo cuando los ojos están cerrados,y cuando se escucha el sonido, ¿se puede percibir el mensaje correcto? Por ejemplo, el "ga" visual combinado con el "ba" auditivo da como resultado la percepción de "da".
Magnotti y Beauchamp pudieron crear un modelo de algoritmo de percepción del habla multisensorial basado en el principio de inferencia causal, lo que significa que dado un par particular de sílabas auditivas y visuales, el cerebro calcula la probabilidad de que sean de habladores individuales y múltiplesesta probabilidad de determinar la percepción final del habla.
"Comparamos nuestro modelo con un modelo alternativo que es idéntico, excepto que siempre integra las señales disponibles, lo que significa que no hay inferencia casual de la percepción del habla", dijo Beauchamp, quien también es director del Core for Advanced MRI en Baylor"Utilizando datos de una gran cantidad de sujetos, el modelo con inferencia causal predijo mejor cómo los humanos integrarían o no las sílabas del habla audiovisual".
"Los resultados sugieren un papel fundamental para un cálculo del tipo de inferencia causal que ocurre en el cerebro durante la percepción del habla multisensorial", dijo Magnotti.
Los investigadores ya tienen una idea de cómo y dónde el cerebro codifica por separado el habla auditiva y visual, pero este algoritmo arroja luz sobre el proceso de cómo se integran. Servirá como guía, destacando regiones cerebrales específicas que serán esencialespara la percepción del habla multisensorial.
"Comprender cómo el cerebro combina información de múltiples sentidos proporcionará información sobre formas de mejorar la disminución de la percepción del habla debido al envejecimiento típico e incluso desarrollar dispositivos que podrían mejorar la audición a lo largo de la vida", dijo Beauchamp.
Ver http://openwetware.org/wiki/Beauchamp:McGurk_CI_Stimuli para ejemplos
Fuente de la historia :
Materiales proporcionados por PLOS . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :