El actor James Franco se ve algo feliz cuando graba un diario de video en la película "127 horas". No es hasta que la cámara se aleja, revelando que su brazo está aplastado bajo una roca, que queda claro que su sonrisa tonta oculta su agonía.
Esto se debe a que cuando se trata de leer el estado mental de una persona, el contexto visual, como el fondo y la acción, es tan importante como las expresiones faciales y el lenguaje corporal, según un nuevo estudio de la Universidad de California, Berkeley.
Los resultados, que aparecerán en línea esta semana en la revista Actas de la Academia Nacional de Ciencias desafiar décadas de investigación postulando que la inteligencia emocional y el reconocimiento se basan en gran medida en la capacidad de leer microexpresiones que indican felicidad, tristeza, ira, miedo, sorpresa, asco, desprecio y otros estados de ánimo y sentimientos positivos y negativos.
"Nuestro estudio revela que el reconocimiento de emociones es, en esencia, una cuestión de contexto tanto como de caras", dijo el autor principal del estudio, Zhimin Chen, estudiante de doctorado en psicología en UC Berkeley.
Los investigadores difuminaron las caras y los cuerpos de los actores en docenas de clips silenciados de películas de Hollywood y videos caseros. A pesar de la invisibilidad virtual de los personajes, cientos de participantes en el estudio pudieron leer con precisión sus emociones al examinar el fondo y cómo estaban interactuando con ellos.sus alrededores.
El modelo de "seguimiento afectivo" que Chen creó para el estudio permite a los investigadores rastrear cómo las personas califican las emociones momento a momento de los personajes mientras ven videos.
El método de Chen es capaz de recopilar grandes cantidades de datos en poco tiempo, y eventualmente podría usarse para evaluar cómo las personas con trastornos como el autismo y la esquizofrenia leen las emociones en tiempo real y ayudan con sus diagnósticos.
"Algunas personas pueden tener déficits en el reconocimiento de las expresiones faciales, pero pueden reconocer la emoción del contexto", dijo Chen. "Para otros, es lo contrario".
Además, los resultados, basados en análisis estadísticos de las calificaciones recopiladas, podrían informar el desarrollo de la tecnología de reconocimiento facial.
"En este momento, las empresas están desarrollando algoritmos de aprendizaje automático para reconocer las emociones, pero solo entrenan a sus modelos en caras recortadas y esos modelos solo pueden leer las emociones de las caras", dijo Chen. "Nuestra investigación muestra que las caras no revelan verdademociones con mucha precisión y que la identificación del estado de ánimo de una persona también debe tener en cuenta el contexto "
Para el estudio, Chen y el autor principal del estudio, David Whitney, científico de la visión de UC Berkeley, probaron las habilidades de reconocimiento de emociones de casi 400 adultos jóvenes. Los estímulos visuales que utilizaron fueron videoclips de varias películas de Hollywood, así como documentales y videos caserosque mostró respuestas emocionales en entornos más naturales.
Los participantes del estudio se pusieron en línea para ver y calificar los videoclips. Se superpuso una cuadrícula de calificación sobre el video para que los investigadores pudieran rastrear el cursor de cada participante del estudio a medida que se movía por la pantalla, procesando información visual y calificando las emociones momento a momento.
En el primero de tres experimentos, 33 participantes del estudio vieron interacciones en clips de película entre dos personajes, uno de los cuales fue borroso, y calificaron las emociones percibidas del personaje borroso. Los resultados mostraron que los participantes del estudio dedujeron cómo se sentía el personaje invisiblebasado no solo en sus interacciones interpersonales, sino también en lo que estaba sucediendo en el fondo.
A continuación, aproximadamente 200 participantes del estudio vieron videoclips que mostraban interacciones en tres condiciones diferentes: una en la que todo era visible, otra en la que los personajes estaban borrosos y otra en la que el contexto estaba borroso. Los resultados mostraron que el contexto era tan importantecomo reconocimiento facial para decodificar emociones.
En el experimento final, 75 participantes del estudio vieron clips de documentales y videos caseros para que los investigadores pudieran comparar el reconocimiento de emociones en entornos más naturalistas. Una vez más, el contexto fue tan crítico para inferir las emociones de los personajes como lo fueron sus expresiones faciales y gestos.
"En general, los resultados sugieren que el contexto no solo es suficiente para percibir la emoción, sino que también es necesario para percibir la emoción de una persona", dijo Whitney, un profesor de psicología de UC Berkeley. "Acéptelo, la cara no es suficiente para percibir la emoción."
Fuente de la historia :
Materiales proporcionado por Universidad de California - Berkeley . Original escrito por Yasmin Anwar. Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :