El robot R2-D2 de Star Wars no se comunica en lenguaje humano, pero es, sin embargo, capaz de mostrar sus intenciones. Para la interacción humano-robot, el robot no tiene que ser un verdadero 'humanoide', siempre que suLas señales están diseñadas de la manera correcta, dice la investigadora Daphne Karreman Universidad de Twente, Países Bajos.
Un ser humano solo será capaz de comunicarse con robots si este robot tiene muchas características humanas. Esa es la idea común. Pero imitar movimientos y expresiones naturales es complicado, y parte de nuestra comunicación no verbal no es realmente adecuada para robots: ampliagestos con los brazos, por ejemplo. Los seres humanos demuestran ser capaces de responder de manera social, incluso a máquinas que parecen máquinas. Tenemos una tendencia natural a traducir los movimientos y señales de las máquinas al mundo humano. Dos lentes simples en una máquina pueden hacerla gente saluda a la máquina.
más allá de R2-D2
Sabiendo eso, diseñar señales intuitivas es un desafío. En su investigación, Daphne Karreman se centró en un robot que funciona como guía en un museo o un zoológico. Si el robot no tiene brazos, ¿puede señalar algo que los visitantes tienen?Usando el habla, el lenguaje escrito, una pantalla, la proyección de imágenes en una pared y movimientos específicos, el robot tiene una gran cantidad de 'modalidades' que los humanos no tienen. Agregue a esto jugar con la luz y el color, yIncluso un robot de 'baja antropomorfa' puede estar equipado con fuertes habilidades de comunicación. Va mucho más allá de R2-D2 que se comunica mediante pitidos que primero deben traducirse. La tesis doctoral de Karreman se titula 'Más allá de R2-D2'.
en la naturaleza
Karreman analizó una gran cantidad de datos de video para ver cómo responden los humanos a un robot. Hasta ahora, este tipo de investigación se realizaba principalmente en situaciones de laboratorio controladas, sin otras personas presentes o después de que la persona de prueba fuera informada sobre lo que estaba sucediendoEn este caso, el robot se introdujo 'en la naturaleza' y de forma desestructurada. La gente podría encontrarse con el robot en el Real Alcázar de Sevilla, por ejemplo. Ellos deciden por sí mismos si quieren ser guiados porun robot. ¿Qué les hace mantener la distancia? ¿La gente reconoce de qué es capaz este robot?
herramienta de video
Para analizar estos datos de video, Karreman desarrolló una herramienta llamada Método de análisis de eventos de reducción de datos DREAM. El robot llamado Fun Robotic Outdoor Guide FROG tiene una pantalla, se comunica mediante lenguaje hablado y señales de luz, y tiene un pequeño puntero ensu 'cabeza'. Por sí solo, FROG reconoce si las personas están interesadas en la interacción y la orientación. Gracias a la poderosa herramienta DREAM, por primera vez es posible analizar y clasificar la interacción humano-robot de una manera rápida y confiable.otros métodos, DREAM no interpretará todas las señales inmediatamente, pero compara varios 'codificadores' para obtener un resultado confiable y reproducible.
¿Cuántas personas muestran interés, se unen al robot durante todo el recorrido, responden como se esperaba? Es posible evaluar esto mediante cuestionarios, pero eso coloca al robot en una posición especial: la gente viene principalmente a visitar la expoo zoológico y no para encontrarse con un robot. Con la herramienta DREAM, la interacción espontánea se vuelve más visible y, por lo tanto, se puede optimizar el comportamiento del robot.
Daphne Karreman hizo su trabajo de doctorado en el grupo Human Media Interaction de la profesora Vanessa Evers de UT. Su investigación fue parte del programa europeo FP7 FROG
El robot R2-D2 de Star Wars no se comunica en lenguaje humano pero, sin embargo, es capaz de mostrar sus intenciones. Para la interacción humano-robot, el robot no tiene que ser un verdadero 'humanoide'. Siempre queLas señales están diseñadas de la manera correcta, dice la investigadora de UT Daphne Karreman.
Un ser humano solo será capaz de comunicarse con robots si este robot tiene muchas características humanas. Esa es la idea común. Pero imitar movimientos y expresiones naturales es complicado, y parte de nuestra comunicación no verbal no es realmente adecuada para robots: ampliagestos con los brazos, por ejemplo. Los seres humanos demuestran ser capaces de responder de manera social, incluso a máquinas que parecen máquinas. Tenemos una tendencia natural a traducir los movimientos y señales de las máquinas al mundo humano. Dos lentes simples en una máquina pueden hacerla gente saluda a la máquina.
más allá de R2-D2
Sabiendo eso, diseñar señales intuitivas es un desafío. En su investigación, Daphne Karreman se centró en un robot que funciona como guía en un museo o un zoológico. Si el robot no tiene brazos, ¿puede señalar algo que los visitantes tienen?Usando el habla, el lenguaje escrito, una pantalla, la proyección de imágenes en una pared y movimientos específicos, el robot tiene una gran cantidad de 'modalidades' que los humanos no tienen. Agregue a esto jugar con la luz y el color, yIncluso un robot de 'baja antropomorfa' puede estar equipado con fuertes habilidades de comunicación. Va mucho más allá de R2-D2 que se comunica mediante pitidos que primero deben traducirse. La tesis doctoral de Karreman se titula 'Más allá de R2-D2'.
en la naturaleza
Karreman analizó una gran cantidad de datos de video para ver cómo responden los humanos a un robot. Hasta ahora, este tipo de investigación
Un ser humano solo será capaz de comunicarse con robots si este robot tiene muchas características humanas. Esa es la idea común. Pero imitar movimientos y expresiones naturales es complicado, y parte de nuestra comunicación no verbal no es realmente adecuada para robots: ampliagestos con los brazos, por ejemplo. Los seres humanos demuestran ser capaces de responder de manera social, incluso a máquinas que parecen máquinas. Tenemos una tendencia natural a traducir los movimientos y señales de las máquinas al mundo humano. Dos lentes simples en una máquina pueden hacerla gente saluda a la máquina.
más allá de R2-D2
Sabiendo eso, diseñar señales intuitivas es un desafío. En su investigación, Daphne Karreman se centró en un robot que funciona como guía en un museo o un zoológico. Si el robot no tiene brazos, ¿puede señalar algo que los visitantes tienen?Usando el habla, el lenguaje escrito, una pantalla, la proyección de imágenes en una pared y movimientos específicos, el robot tiene una gran cantidad de 'modalidades' que los humanos no tienen. Agregue a esto jugar con la luz y el color, yIncluso un robot de 'baja antropomorfa' puede estar equipado con fuertes habilidades de comunicación. Va mucho más allá de R2-D2 que se comunica mediante pitidos que primero deben traducirse. La tesis doctoral de Karreman se titula 'Más allá de R2-D2'.
en la naturaleza
Karreman analizó una gran cantidad de datos de video para ver cómo responden los humanos a un robot. Hasta ahora, este tipo de investigación se realizaba principalmente en situaciones de laboratorio controladas, sin otras personas presentes o después de que la persona de prueba fuera informada sobre lo que estaba sucediendoEn este caso, el robot se introdujo 'en la naturaleza' y de forma desestructurada. La gente podría encontrarse con el robot en el Real Alcázar de Sevilla, por ejemplo. Ellos deciden por sí mismos si quieren ser guiados porun robot. ¿Qué les hace mantener la distancia? ¿La gente reconoce de qué es capaz este robot?
herramienta de video
Para analizar estos datos de video, Karreman desarrolló una herramienta llamada Método de análisis de eventos de reducción de datos DREAM. El robot llamado Fun Robotic Outdoor Guide FROG tiene una pantalla, se comunica mediante lenguaje hablado y señales de luz, y tiene un pequeño puntero ensu 'cabeza'. Por sí solo, FROG reconoce si las personas están interesadas en la interacción y la orientación. Gracias a la poderosa herramienta DREAM, por primera vez es posible analizar y clasificar la interacción humano-robot de una manera rápida y confiable.otros métodos, DREAM no interpretará todas las señales inmediatamente, pero compara varios 'codificadores' para obtener un resultado confiable y reproducible.
¿Cuántas personas muestran interés, se unen al robot durante todo el recorrido, responden como se esperaba? Es posible evaluar esto mediante cuestionarios, pero eso coloca al robot en una posición especial: la gente viene principalmente a visitar la expoo zoológico y no para encontrarse con un robot. Con la herramienta DREAM, la interacción espontánea se vuelve más visible y, por lo tanto, se puede optimizar el comportamiento del robot.
Daphne Karreman hizo su trabajo de doctorado en el grupo Human Media Interaction de la profesora Vanessa Evers de UT. Su investigación fue parte del programa europeo FP7 FROG
El robot R2-D2 de Star Wars no se comunica en lenguaje humano pero, sin embargo, es capaz de mostrar sus intenciones. Para la interacción humano-robot, el robot no tiene que ser un verdadero 'humanoide'. Siempre queLas señales están diseñadas de la manera correcta, dice la investigadora de UT Daphne Karreman.
Un ser humano solo será capaz de comunicarse con robots si este robot tiene muchas características humanas. Esa es la idea común. Pero imitar movimientos y expresiones naturales es complicado, y parte de nuestra comunicación no verbal no es realmente adecuada para robots: ampliagestos con los brazos, por ejemplo. Los seres humanos demuestran ser capaces de responder de manera social, incluso a máquinas que parecen máquinas. Tenemos una tendencia natural a traducir los movimientos y señales de las máquinas al mundo humano. Dos lentes simples en una máquina pueden hacerla gente saluda a la máquina.
más allá de R2-D2
Sabiendo eso, diseñar señales intuitivas es un desafío. En su investigación, Daphne Karreman se centró en un robot que funciona como guía en un museo o un zoológico. Si el robot no tiene brazos, ¿puede señalar algo que los visitantes tienen?Usando el habla, el lenguaje escrito, una pantalla, la proyección de imágenes en una pared y movimientos específicos, el robot tiene una gran cantidad de 'modalidades' que los humanos no tienen. Agregue a esto jugar con la luz y el color, yIncluso un robot de 'baja antropomorfa' puede estar equipado con fuertes habilidades de comunicación. Va mucho más allá de R2-D2 que se comunica mediante pitidos que primero deben traducirse. La tesis doctoral de Karreman se titula 'Más allá de R2-D2'.
en la naturaleza
Karreman analizó una gran cantidad de datos de video para ver cómo responden los humanos a un robot. Hasta ahora, este tipo de investigación se realizaba principalmente en situaciones de laboratorio controladas, sin otras personas presentes o después de que la persona de prueba fuera informada sobre lo que estaba sucediendoEn este caso, el robot se introdujo 'en la naturaleza' y de forma desestructurada. La gente podría encontrarse con el robot en el Real Alcázar de Sevilla, por ejemplo. Ellos deciden por sí mismos si quieren ser guiados porun robot. ¿Qué les hace mantener la distancia? ¿La gente reconoce de qué es capaz este robot?
herramienta de video
Para analizar estos datos de video, Karreman desarrolló una herramienta llamada Método de análisis de eventos de reducción de datos DREAM. El robot llamado Fun Robotic Outdoor Guide FROG tiene una pantalla, se comunica mediante lenguaje hablado y señales de luz, y tiene un pequeño puntero ensu 'cabeza'. Por sí solo, FROG reconoce si las personas están interesadas en la interacción y la orientación. Gracias a la poderosa herramienta DREAM, por primera vez es posible analizar y clasificar la interacción humano-robot de una manera rápida y confiable.otros métodos, DREAM no interpretará todas las señales inmediatamente, pero compara varios 'codificadores' para obtener un resultado confiable y reproducible.
¿Cuántas personas muestran interés, se unen al robot durante todo el recorrido, responden como se esperaba? Es posible evaluar esto mediante cuestionarios, pero eso coloca al robot en una posición especial: la gente viene principalmente a visitar la expoo zoológico y no para encontrarse con un robot. Con la herramienta DREAM, la interacción espontánea se vuelve más visible y, por lo tanto, se puede optimizar el comportamiento del robot.
Daphne Karreman hizo su trabajo de doctorado en el grupo Human Media Interaction de la profesora Vanessa Evers de UT. Su investigación fue parte del programa europeo FP7 FROG www.frogrobot.eu .La tesis doctoral de Karreman se titula 'Más allá de R2-D2.El diseño de comportamiento de interacción no verbal optimizado para morfologías específicas de robots. '
Fuente de la historia :
Materiales proporcionado por Universidad de Twente . Nota: el contenido se puede editar por estilo y longitud.
cite esta página :