A pesar de lo que pueda ver en las películas, los robots de hoy en día siguen siendo muy limitados en lo que pueden hacer. Pueden ser excelentes para muchas tareas repetitivas, pero su incapacidad para comprender los matices del lenguaje humano los hace en su mayoría inútiles para solicitudes más complicadas.
Por ejemplo, si coloca una herramienta específica en una caja de herramientas y le pide a un robot que la "recoja", se perdería por completo. Recogerla significa poder ver e identificar objetos, comprender comandos, reconocer que el ""en cuestión es la herramienta que coloca, retroceda en el tiempo para recordar el momento en que dejó la herramienta y distinga la herramienta que coloca de otras de formas y tamaños similares".
Recientemente, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT se han acercado a facilitar este tipo de solicitud: en un nuevo documento, presentan un sistema similar a Alexa que permite a los robots comprender una amplia gama de comandos que requierenconocimiento contextual sobre objetos y sus entornos. Han denominado al sistema "ComText" por "comandos en contexto".
La situación de la caja de herramientas anterior estaba entre los tipos de tareas que ComText puede manejar. Si le dice al sistema que "la herramienta que coloqué es mi herramienta", agrega ese hecho a su base de conocimiento. Luego puede actualizar el robot conmás información sobre otros objetos y que ejecute una variedad de tareas, como recoger diferentes conjuntos de objetos basados en diferentes comandos.
"Cuando los humanos entienden el mundo como una colección de objetos y personas y conceptos abstractos, las máquinas lo ven como píxeles, nubes de puntos y mapas tridimensionales generados a partir de sensores", dice Rohan Paul, postdoc CSAIL, uno de los autores principales"Esta brecha semántica significa que, para que los robots entiendan lo que queremos que hagan, necesitan una representación mucho más rica de lo que hacemos y decimos".
El equipo probó ComText en Baxter, un robot humanoide de dos brazos desarrollado para Rethink Robotics por el ex director de CSAIL, Rodney Brooks.
El proyecto fue codirigido por el científico investigador Andrei Barbu, junto con el científico investigador Sue Felshin, el científico investigador senior Boris Katz y el profesor Nicholas Roy. Presentaron el documento en la Conferencia Conjunta Internacional sobre Inteligencia Artificial IJCAI de la semana pasada en Australia.
Cómo funciona
Cosas como fechas, cumpleaños y hechos son formas de "memoria declarativa". Hay dos tipos de memoria declarativa: memoria semántica, que se basa en hechos generales como "el cielo es azul" y memoria episódica, que se basaen hechos personales, como recordar lo que sucedió en una fiesta.
La mayoría de los enfoques para el aprendizaje de robots se han centrado solo en la memoria semántica, lo que obviamente deja una gran brecha de conocimiento sobre eventos o hechos que pueden ser un contexto relevante para acciones futuras. ComText, mientras tanto, puede observar una variedad de imágenes y lenguaje natural para recoger "memoria episódica "sobre el tamaño, la forma, la posición, el tipo de un objeto e incluso si pertenece a alguien. A partir de esta base de conocimiento, puede razonar, inferir significado y responder a comandos.
"La contribución principal es esta idea de que los robots deben tener diferentes tipos de memoria, al igual que las personas", dice Barbu. "Tenemos la primera formulación matemática para abordar este problema, y estamos explorando cómo funcionan estos dos tipos de memoriay trabajar el uno del otro "
Con ComText, Baxter logró ejecutar el comando correcto aproximadamente el 90 por ciento del tiempo. En el futuro, el equipo espera permitir que los robots entiendan información más complicada, como comandos de varios pasos, la intención de las acciones y el usopropiedades sobre objetos para interactuar con ellos de forma más natural
Por ejemplo, si le dice a un robot que una caja en una mesa tiene galletas y una caja tiene azúcar, y luego le pide al robot que "recoja la merienda", la esperanza es que el robot pueda deducir que el azúcar es unmateria prima y, por lo tanto, es poco probable que sea la "merienda" de alguien
Al crear interacciones mucho menos restringidas, esta línea de investigación podría permitir una mejor comunicación para una variedad de sistemas robóticos, desde automóviles autónomos hasta ayudantes domésticos.
"Este trabajo es un buen paso hacia la construcción de robots que puedan interactuar mucho más naturalmente con las personas", dice Luke Zettlemoyer, profesor asociado de ciencias de la computación en la Universidad de Washington que no participó en la investigación ". En particular,ayudará a los robots a comprender mejor los nombres que se usan para identificar objetos en el mundo e interpretará las instrucciones que usan esos nombres para hacer mejor lo que los usuarios piden ".
El trabajo fue financiado, en parte, por el Toyota Research Institute, la National Science Foundation, la Robotics Collaborative Technology Alliance del Ejército de EE. UU. Y el Laboratorio de Investigación de la Fuerza Aérea.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts, CSAIL . Original escrito por Adam Conner-Simons, Rachel Gordon y CSAIL. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :