La forma en que procesamos la vista y el sonido está curiosamente desincronizada en diferentes cantidades para diferentes personas y tareas, según un nuevo estudio de la City, University of London.
Al investigar el efecto, los investigadores descubrieron que la comprensión del habla a veces puede mejorar hasta en un 10 por ciento cuando el sonido se retrasa en relación con la visión, y que diferentes individuos tienen retrasos óptimos únicos y diferentes para diferentes tareas.
Como resultado, los autores sugieren que adaptar los retrasos del sonido de forma individual a través de un audífono o un implante coclear, o una configuración en un reproductor multimedia de computadora, podría tener beneficios significativos para la comprensión del habla y el disfrute de los medios multimedia.el estudio está publicado en Revista de psicología experimental: percepción y desempeño humanos .
Cuando los investigadores de City profundizaron en este fenómeno, siguieron encontrando un patrón muy curioso: diferentes tareas se beneficiaban de retrasos opuestos, incluso en la misma persona. Por ejemplo, cuanto más se retrasa la visión de un individuo con respecto a la audición en el desempeño de unotarea p. ej., identificar los sonidos del habla, a la inversa, es más probable que su audición retrase la visión en otras tareas p. ej., decidir si los labios siguieron o precedieron a la voz del hablante. Este hallazgo proporciona una nueva perspectiva sobre cómo determinamos cuándo ocurren realmente los eventos enel mundo y la naturaleza de la sincronización perceptiva en el cerebro.
Cuando vemos y escuchamos a una persona hablar, las señales sensoriales viajan a través de diferentes vías desde nuestros ojos y oídos a través del cerebro. Las asicronías audiovisuales medidas en este estudio pueden ocurrir porque estas señales sensoriales llegan a sus diferentes destinos en el cerebro en diferentes momentos..
Sin embargo, ¿cómo podemos saber cuándo ocurrieron realmente los eventos físicos del habla en el mundo? El cerebro debe tener una forma de resolver este problema, dado que aún podemos juzgar si los eventos originales están sincronizados o no con una precisión razonable.Por ejemplo, a menudo podemos identificar fácilmente cuándo las películas tienen una sincronización de labios deficiente.
El autor principal, el Dr. Elliot Freeman, profesor titular en el Departamento de Psicología de la City, Universidad de Londres, propone una solución basada en un problema análogo de los 'relojes múltiples': "Imagínese en una tienda de antigüedades llena de relojes y quieresaber qué hora es. Su mejor estimación proviene del promedio de los relojes. Sin embargo, si un reloj es particularmente lento, otros parecerán rápidos en relación con él.
"En nuestra nueva teoría, que llamamos 'renormalización temporal', los 'relojes' son análogos a diferentes mecanismos en el cerebro, cada uno de los cuales recibe la vista y el sonido fuera de sincronía: pero si uno de esos mecanismos está sujeto a un retraso auditivo,esto sesgará el promedio, en relación con el cual otros mecanismos pueden parecer tener un retraso visual. Esta teoría explica el curioso hallazgo de que las diferentes tareas muestran retrasos opuestos; también puede explicar cómo sabemos cuándo los eventos en el mundo están sucediendo realmente, a pesar de nuestracerebros que tienen muchas estimaciones contradictorias de su tiempo ".
En sus experimentos, los investigadores presentaron a los participantes películas audiovisuales de una persona que hablaba sílabas, palabras u oraciones, mientras variaban la asincronía de la voz en relación con los movimientos de los labios. Para cada película midieron su precisión para identificar las palabras habladas o la fuerzaLos movimientos influyeron en lo que se escuchó.
En el último caso, los investigadores explotaron la ilusión de McGurk, donde, por ejemplo, el fonema 'ba' suena como 'da' cuando no coincide con los movimientos de los labios para 'ga'. Entonces pudieron estimar la asincronía que resultó en la máxima precisión oLa ilusión de McGurk más fuerte. En una tarea separada, también pidieron a los participantes que juzgaran si la voz venía antes o después de los movimientos de los labios, a partir de los cuales podían estimar la asincronía subjetiva.
Hablando sobre el estudio, el Dr. Freeman dijo: "A menudo asumimos que la mejor manera de comprender el habla es hacer coincidir lo que escuchamos con los movimientos de los labios, y que esto funciona mejor cuando la vista y el sonido son simultáneos. Sin embargo, nuestro nuevo estudioconfirma que la vista y el sonido realmente están desincronizados en diferentes cantidades en diferentes personas. También encontramos que para algunas personas, retrasar manualmente las voces en relación con los movimientos de los labios podría mejorar la comprensión del habla y la precisión de la identificación de palabras en un 10% o más.
"Este documento también presenta un nuevo método automatizado para evaluar las asincronías audiovisuales individuales, que podría administrarse a través de Internet o mediante una 'aplicación'. Una vez que se mide la asincronía perceptiva de un individuo, se puede corregir artificialmente con un retraso personalizado. Estopodría implementarse a través de un audífono o un implante coclear, o un entorno en un reproductor multimedia de computadora, con beneficios potenciales para la comprensión del habla y el disfrute de la multimedia.
"La percepción asincrónica puede afectar el rendimiento cognitivo, y los estudios futuros podrían examinar sus asociaciones con los rasgos esquizotípicos de la personalidad, los rasgos del espectro autista y la dislexia".
Fuente de la historia :
Materiales proporcionados por Universidad de la ciudad de Londres . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :