El afecto de Japón por los robots no es un secreto. ¿Pero es el sentimiento mutuo en los increíbles androides del país? Ahora podemos estar un paso más cerca de dar a los androides mayores expresiones faciales para comunicarse.
Si bien los robots han aparecido en avances en atención médica, industrial y otros entornos en Japón, capturar la expresión humanista en una cara robótica sigue siendo un desafío difícil de alcanzar. Aunque sus propiedades del sistema se han abordado en general, las expresiones faciales de los androides no se han examinado en detalleEsto se debe a factores como la gran variedad y la asimetría de los movimientos faciales humanos naturales, las restricciones de los materiales utilizados en la piel de Android y, por supuesto, la intrincada ingeniería y las matemáticas que impulsan los movimientos de los robots.
Un trío de investigadores de la Universidad de Osaka ahora ha encontrado un método para identificar y evaluar cuantitativamente los movimientos faciales en la cabeza de su robot robot androide. Denominado Affetto, el modelo de primera generación del androide se informó en una publicación de 2011. Los investigadores ahora han encontrado unsistema para hacer que el Affetto de segunda generación sea más expresivo. Sus hallazgos ofrecen un camino para que los androides expresen mayores rangos de emoción y finalmente tengan una interacción más profunda con los humanos.
Los investigadores informaron sus hallazgos en la revista Fronteras en robótica e IA .
"Las deformaciones de la superficie son un tema clave en el control de las caras de Android", explica el coautor del estudio, Minoru Asada. "Los movimientos de su piel facial suave crean inestabilidad, y este es un gran problema de hardware con el que lidiamos. Buscamos una mejor manera demedirlo y controlarlo "
Los investigadores investigaron 116 puntos faciales diferentes en Affetto para medir su movimiento tridimensional. Los puntos faciales estaban apuntalados por las llamadas unidades de deformación. Cada unidad comprende un conjunto de mecanismos que crean una contorsión facial distintiva, como bajar o elevarparte de un labio o párpado.Las mediciones de estos se sometieron a un modelo matemático para cuantificar sus patrones de movimiento de superficie.
Si bien los investigadores encontraron desafíos para equilibrar la fuerza aplicada y ajustar la piel sintética, pudieron emplear su sistema para ajustar las unidades de deformación para un control preciso de los movimientos de la superficie facial de Affetto.
"Las caras de robots de Android han persistido en ser un problema de caja negra: se han implementado pero solo se han juzgado en términos vagos y generales", dice el primer autor del estudio Hisashi Ishihara. "Nuestros hallazgos precisos nos permitirán controlar efectivamente los movimientos faciales de Androidpara introducir expresiones más matizadas, como sonreír y fruncir el ceño "
Fuente de la historia :
Materiales proporcionado por Universidad de Osaka . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :