Una nueva investigación ha demostrado que los robots pueden alentar a las personas a tomar mayores riesgos en un escenario de juego simulado de lo que lo harían si no hubiera nada que influyera en sus comportamientos. Mejorar nuestra comprensión de si los robots pueden afectar la toma de riesgos podría tener una política ética, práctica y política claraimplicaciones, que este estudio se propuso explorar.
El Dr. Yaniv Hanoch, profesor adjunto de Gestión de Riesgos en la Universidad de Southampton que dirigió el estudio, explicó: "Sabemos que la presión de grupo puede llevar a comportamientos de mayor riesgo. Con la escala cada vez mayor de interacción entre humanos y tecnología,tanto en línea como físicamente, es fundamental que comprendamos mejor si las máquinas pueden tener un impacto similar ".
Esta nueva investigación, publicada en la revista Ciberpsicología, comportamiento y redes sociales , involucró a 180 estudiantes de pregrado que tomaron la Tarea de Riesgo Analógico con Globos BART, una evaluación por computadora que les pide a los participantes que presionen la barra espaciadora en un teclado para inflar un globo que se muestra en la pantalla. Con cada presión de la barra espaciadora, el globo se infla ligeramente, y se agrega 1 centavo al "banco de dinero temporal" del jugador. Los globos pueden explotar aleatoriamente, lo que significa que el jugador pierde todo el dinero que haya ganado por ese globo y tiene la opción de "cobrar" antes de que esto suceda y seguir adelanteal siguiente globo.
Un tercio de los participantes tomó la prueba en una habitación por su cuenta el grupo de control, un tercio hizo la prueba junto a un robot que solo les dio las instrucciones pero estuvo en silencio el resto del tiempo y el final,el grupo experimental, tomó la prueba con el robot proporcionando instrucciones y haciendo declaraciones alentadoras como "¿por qué dejaste de bombear?"
Los resultados mostraron que el grupo que fue animado por el robot asumió más riesgos, inflando sus globos con mucha más frecuencia que los de los otros grupos. También ganaron más dinero en general. No hubo diferencias significativas en los comportamientos de losestudiantes acompañados por el robot silencioso y aquellos sin robot.
El Dr. Hanoch dijo: "Vimos a los participantes en la condición de control reducir su comportamiento de riesgo después de la explosión de un globo, mientras que aquellos en la condición experimental continuaron corriendo tanto riesgo como antes. Por lo tanto, recibir el estímulo directo de un riesgo ...la promoción del robot parecía anular las experiencias directas y los instintos de los participantes ".
El investigador ahora cree que se necesitan más estudios para ver si surgirían resultados similares de la interacción humana con otros sistemas de inteligencia artificial IA, como asistentes digitales o avatares en pantalla.
El Dr. Hanoch concluyó: "Con la amplia difusión de la tecnología de inteligencia artificial y sus interacciones con los humanos, esta es un área que necesita atención urgente por parte de la comunidad de investigadores".
"Por un lado, nuestros resultados pueden generar alarmas sobre la posibilidad de que los robots causen daños al aumentar el comportamiento de riesgo. Por otro lado, nuestros datos apuntan a la posibilidad de utilizar robots e inteligencia artificial en programas preventivos, como anti-tabacocampañas en las escuelas y con poblaciones de difícil acceso, como los adictos ".
Fuente de la historia :
Materiales proporcionado por Universidad de Southampton . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :