Un nuevo sistema basado en la investigación realizada por científicos informáticos de la Universidad de Brown hace que los robots sean mejores para seguir instrucciones habladas, sin importar cuán abstractas o específicas puedan ser esas instrucciones. El desarrollo, que se presentó esta semana en la conferencia Robotics: Science and Systems 2017 enBoston, es un paso hacia los robots que pueden comunicarse de manera más fluida con colaboradores humanos.
La investigación fue dirigida por Dilip Arumugam y Siddharth Karamcheti, ambos estudiantes universitarios de Brown cuando se realizó el trabajo Arumugam ahora es un estudiante graduado de Brown. Trabajaron con el estudiante graduado Nakul Gopalan y el investigador postdoctoral Lawson LS Wong en el laboratorio de StefanieTellex, profesor de informática en Brown.
"El problema que estamos abordando es la conexión a tierra del lenguaje, lo que significa que un robot tome comandos de lenguaje natural y genere comportamientos que completen con éxito una tarea", dijo Arumugam. "El problema es que los comandos pueden tener diferentes niveles de abstracción, y esopuede hacer que un robot planifique sus acciones de manera ineficiente o no complete la tarea ".
Por ejemplo, imagine a alguien en un almacén trabajando lado a lado con una carretilla elevadora robótica. La persona podría decirle al compañero robótico: "Agarra esa paleta". Es un comando muy abstracto que implica una serie de subpasos más pequeños- alineando el elevador, colocando las horquillas debajo y levantándolo. Sin embargo, otros comandos comunes podrían ser más precisos e incluir una sola acción: "Incline un poco las horquillas", por ejemplo.
Los diferentes niveles de abstracción pueden causar problemas para los modelos actuales de lenguaje de robot, dicen los investigadores. La mayoría de los modelos intentan identificar señales de las palabras en el comando, así como la estructura de la oración y luego deducen una acción deseada de ese lenguaje. La inferencialos resultados desencadenan un algoritmo de planificación que intenta resolver la tarea, pero sin tener en cuenta la especificidad de las instrucciones, el robot podría sobrepasar las instrucciones simples o subplanificar las instrucciones más abstractas que implican más pasos secundarios.acciones o un retraso de planificación demasiado largo antes de que el robot tome medidas.
Pero este nuevo sistema agrega un nivel adicional de sofisticación a los modelos existentes. Además de simplemente inferir una tarea deseada del lenguaje, el nuevo sistema también analiza el lenguaje para inferir un nivel distinto de abstracción.
"Eso nos permite acoplar nuestra inferencia de tareas, así como nuestro nivel de especificidad inferido con un planificador jerárquico, para que podamos planificar en cualquier nivel de abstracción", dijo Arumugam. "A su vez, podemos obtener aceleraciones dramáticas en el rendimientoal ejecutar tareas en comparación con los sistemas existentes "
Para desarrollar su nuevo modelo, los investigadores utilizaron Mechanical Turk, el mercado de crowdsourcing de Amazon y un dominio de tareas virtual llamado Cleanup World. El dominio en línea consta de unas pocas habitaciones codificadas por colores, un agente robótico y un objeto que puede manipularse.- en este caso, una silla que se puede mover de una habitación a otra.
Los voluntarios de Mechanical Turk observaron al agente robot realizar una tarea en el dominio de Cleanup World, por ejemplo, mover la silla de una habitación roja a una habitación azul adyacente. Luego, se les pidió a los voluntarios que dijeran qué instrucciones le habrían dado al robotpara que realice la tarea que acaban de observar. Los voluntarios recibieron orientación sobre el nivel de especificidad que deberían tener sus instrucciones. Las instrucciones iban desde el nivel superior: "Lleve la silla a la sala azul" hasta el nivel escalonado: "Tome cinco pasos hacia el norte, gire a la derecha, tome dos pasos más, tome la silla, gire a la izquierda, gire a la izquierda, tome cinco pasos hacia el sur". Un tercer nivel de abstracción utilizó terminología en algún punto entre esos dos.
Los investigadores usaron las instrucciones orales de los voluntarios para entrenar su sistema para comprender qué tipo de palabras se usan en cada nivel de abstracción. A partir de ahí, el sistema aprendió a inferir no solo una acción deseada, sino también el nivel de abstracción del comandoConociendo ambas cosas, el sistema podría activar su algoritmo de planificación jerárquica para resolver la tarea desde el nivel apropiado.
Habiendo entrenado su sistema, los investigadores lo probaron tanto en el mundo virtual de limpieza como con un robot real similar a un Roomba operando en un mundo físico similar al espacio del mundo de limpieza. Mostraron que cuando un robot podía inferir ambas tareasy la especificidad de las instrucciones, respondió a los comandos en un segundo el 90 por ciento del tiempo. En comparación, cuando no se infirió ningún nivel de especificidad, la mitad de todas las tareas requirieron 20 o más segundos de tiempo de planificación.
"En última instancia, queremos ver robots que sean socios útiles en nuestros hogares y lugares de trabajo", dijo Tellex, que se especializa en colaboración humano-robot. "Este trabajo es un paso hacia el objetivo de permitir que las personas se comuniquen con los robots en gran partede la misma manera que nos comunicamos entre nosotros "
Fuente de la historia :
Materiales proporcionado por Universidad de Brown . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :