El rápido ritmo de la inteligencia artificial IA ha generado temores sobre si los robots podrían actuar de manera poco ética o si pronto elegirían dañar a los humanos. Algunos piden prohibiciones en la investigación de robótica; otros piden más investigación para comprender cómo se puede limitar la IA.Pero, ¿cómo pueden los robots aprender un comportamiento ético si no hay un "manual de usuario" para ser humano?
Los investigadores Mark Riedl y Brent Harrison de la Escuela de Computación Interactiva del Instituto de Tecnología de Georgia creen que la respuesta está en "Quijote", que se dará a conocer en la Conferencia AAAI-16 en Phoenix, Arizona 12-17 de febrero, 2016. Quijote enseña "alineación de valores" a los robots al entrenarlos para leer historias, aprender secuencias aceptables de eventos y comprender formas exitosas de comportarse en las sociedades humanas.
"Las historias recopiladas de diferentes culturas enseñan a los niños cómo comportarse de manera socialmente aceptable con ejemplos de comportamiento apropiado e inapropiado en fábulas, novelas y otra literatura", dice Riedl, profesor asociado y director del Entertainment Intelligence Lab. "CreemosLa comprensión de la historia en los robots puede eliminar el comportamiento de aparición psicótica y reforzar las elecciones que no dañarán a los humanos y aún así alcanzarán el propósito deseado ".
El Quijote es una técnica para alinear los objetivos de una IA con los valores humanos al otorgar recompensas por el comportamiento socialmente apropiado. Se basa en la investigación previa de Riedl, el sistema Scheherazade, que demostró cómo la inteligencia artificial puede reunir una secuencia correcta de acciones mediante una historia de crowdsourcingtramas de Internet.
Scheherazade aprende qué es un gráfico de trama normal o "correcto". Luego pasa esa estructura de datos a Quijote, que la convierte en una "señal de recompensa" que refuerza ciertos comportamientos y castiga otros comportamientos durante el aprendizaje de prueba y error.En esencia, Quijote aprende que será recompensado cada vez que actúe como el protagonista de una historia en lugar de al azar o como el antagonista.
Por ejemplo, si un robot tiene la tarea de recoger una receta para un humano lo más rápido posible, el robot podría a robar la farmacia, tomar el medicamento y correr;b interactuar educadamente con los farmacéuticos, o c esperar en la cola.Sin una alineación de valores y un refuerzo positivo, el robot aprendería que robar es la forma más rápida y económica de realizar su tarea.Con la alineación de valores de Quijote, el robot sería recompensado por esperar pacientemente en línea y pagar la receta.
Riedl y Harrison demuestran en su investigación cómo se puede producir una señal de recompensa alineada con el valor para descubrir todos los pasos posibles en un escenario dado, mapearlos en un árbol de trayectoria de la trama, que luego es utilizado por el agente robótico para hacer "elecciones de la trama"similar a lo que los humanos podrían recordar como una novela de Choose-Your-Own-Adventure y recibir recompensas o castigos en función de su elección.
La técnica Quijote es mejor para los robots que tienen un propósito limitado pero que necesitan interactuar con los humanos para lograrlo, y es un primer paso primitivo hacia el razonamiento moral general en IA, dice Riedl.
"Creemos que la IA tiene que ser inculturada para adoptar los valores de una sociedad en particular, y al hacerlo, se esforzará por evitar un comportamiento inaceptable", agrega. "Dar a los robots la capacidad de leer y comprender nuestras historias puede serel medio más conveniente en ausencia de un manual de usuario humano "
Este proyecto realizado fue o está patrocinado por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. DARPA con la subvención # D11AP00270 y la Oficina de Investigación Naval ONR con la subvención # N00014-14-1-0003. Cualquier opinión, hallazgo yLas conclusiones o recomendaciones expresadas en este material son las del autor es y no reflejan necesariamente la opinión de DARPA o la ONR.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Georgia . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :