El hablar basura tiene una larga y colorida historia de oponentes nerviosos, y ahora los investigadores de la Universidad Carnegie Mellon han demostrado que las palabras desalentadoras pueden ser perturbadoras incluso cuando las pronuncia un robot.
La charla basura en el estudio fue decididamente moderada, con expresiones como "Tengo que decir que eres un jugador terrible" y "En el transcurso del juego tu juego se ha confundido". Aun así, las personas que jugaron unel juego con el robot, un robot humanoide disponible comercialmente conocido como Pepper, tuvo un rendimiento peor cuando el robot los desanimó y mejor cuando el robot los alentó.
El autor principal Aaron M. Roth dijo que algunos de los 40 participantes en el estudio eran técnicamente sofisticados y entendían completamente que una máquina era la fuente de su incomodidad.
"Un participante dijo: 'No me gusta lo que dice el robot, pero esa es la forma en que fue programado, así que no puedo culparlo'", dijo Roth, quien realizó el estudio mientras era estudiante de maestría enEl Instituto de Robótica CMU.
Pero los investigadores descubrieron que, en general, el rendimiento humano disminuyó independientemente de la sofisticación técnica.
El estudio, presentado el mes pasado en la IEEE International Conference on Robot & Human Interactive Communication RO-MAN en Nueva Delhi, India, es una desviación de los estudios típicos de interacción humano-robot, que tienden a centrarse en cómo los humanos y los robotspueden trabajar mejor juntos
"Este es uno de los primeros estudios de interacción humano-robot en un entorno donde no están cooperando", dijo el coautor Fei Fang, profesor asistente en el Instituto de Investigación de Software. Tiene enormes implicaciones para un mundo dondeSe espera que la cantidad de robots y dispositivos de Internet de las cosas IoT con capacidades de inteligencia artificial aumenten exponencialmente. "Podemos esperar que los asistentes domésticos cooperen", dijo, "pero en situaciones como las compras en línea, es posible que no tengan ellos mismos objetivos que nosotros "
El estudio fue una consecuencia de un proyecto estudiantil en AI Methods for Social Good, un curso que enseña Fang. Los estudiantes querían explorar los usos de la teoría de juegos y la racionalidad limitada en el contexto de los robots, por lo que diseñaron un estudio en el quelos humanos competirían contra un robot en un juego llamado "Guardias y Tesoros". Un juego llamado Stackelberg, los investigadores lo usan para estudiar la racionalidad. Este es un juego típico utilizado para estudiar la interacción defensor-atacante en la investigación sobre juegos de seguridad, un áreaen el que Fang ha realizado un extenso trabajo.
Cada participante jugó el juego 35 veces con el robot, mientras se sumergía en palabras alentadoras del robot o se les chamuscaban los oídos con comentarios despectivos. Aunque la racionalidad de los jugadores humanos mejoró a medida que aumentó el número de juegos jugados, aquellos que fueron criticadospor el robot no anotó tan bien como los que fueron elogiados.
Está bien establecido que el rendimiento de un individuo se ve afectado por lo que otras personas dicen, pero el estudio muestra que los humanos también responden a lo que dicen las máquinas, dijo Afsaneh Doryab, científico de sistemas del Instituto de Interacción Humano-Computadora HCII de CMU durante el estudioy ahora profesora asistente en Sistemas de Ingeniería y Medio Ambiente en la Universidad de Virginia. La capacidad de esta máquina para generar respuestas podría tener implicaciones para el aprendizaje automatizado, el tratamiento de salud mental e incluso el uso de robots como compañeros, dijo.
El trabajo futuro podría centrarse en la expresión no verbal entre robot y humanos, dijo Roth, ahora estudiante de doctorado en la Universidad de Maryland. Fang sugiere que se necesita aprender más sobre cómo diferentes tipos de máquinas, por ejemplo, un humanoiderobot en comparación con una caja de computadora: podría invocar diferentes respuestas en humanos.
Además de Roth, Fang y Doryab, el equipo de investigación incluyó a Manuela Veloso, profesora de informática; Samantha Reig, estudiante de doctorado en el HCII; Umang Bhatt, quien recientemente completó un programa conjunto de licenciatura-maestría eningeniería eléctrica e informática; Jonathan Shulgach, estudiante de maestría en ingeniería biomédica; y Tamara Amin, quien recientemente terminó su maestría en ingeniería civil y ambiental.
La National Science Foundation brindó cierto apoyo para este trabajo.
Fuente de la historia :
Materiales proporcionado por Universidad Carnegie Mellon . Original escrito por Byron Spice. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :