Los informáticos de la Universidad de Texas en Austin han enseñado a un agente de inteligencia artificial cómo hacer algo que generalmente solo los humanos pueden hacer: echar un vistazo rápido e inferir todo su entorno, una habilidad necesaria para el desarrollo de una búsqueda efectivay rescate de robots que algún día pueden mejorar la efectividad de misiones peligrosas. El equipo, dirigido por la profesora Kristen Grauman, el candidato a doctorado Santhosh Ramakrishnan y el ex candidato a doctorado Dinesh Jayaraman ahora en la Universidad de California, Berkeley publicaron sus resultados hoy en la revista Ciencia Robótica .
La mayoría de los agentes de inteligencia artificial sistemas informáticos que pueden dotar de inteligencia a los robots u otras máquinas están entrenados para tareas muy específicas, como reconocer un objeto o estimar su volumen, en un entorno que han experimentado antes, como unfábrica. Pero el agente desarrollado por Grauman y Ramakrishnan es de uso general, recolectando información visual que luego puede usarse para una amplia gama de tareas.
"Queremos un agente que generalmente esté equipado para ingresar a los entornos y estar listo para nuevas tareas de percepción a medida que surjan", dijo Grauman. "Se comporta de una manera versátil y capaz de tener éxito en diferentes tareas porque ha aprendido patrones útiles sobreel mundo visual "
Los científicos utilizaron el aprendizaje profundo, un tipo de aprendizaje automático inspirado en las redes neuronales del cerebro, para entrenar a su agente en miles de imágenes de 360 grados de diferentes entornos.
Ahora, cuando se le presenta una escena que nunca antes había visto, el agente usa su experiencia para elegir algunas vislumbres, como un turista parado en medio de una catedral tomando algunas instantáneas en diferentes direcciones que juntas sumana menos del 20 por ciento de la escena completa. Lo que hace que este sistema sea tan efectivo es que no se trata solo de tomar fotografías en direcciones aleatorias sino que, después de cada vistazo, elegir la siguiente toma que predice agregará la información más nueva sobre toda la escena.Esto es muy parecido a si estuvieras en una tienda de comestibles que nunca antes habías visitado, y vieras manzanas, esperarías encontrar naranjas cerca, pero para ubicar la leche, podrías mirar hacia otro lado. Basado en vislumbres, el agente infierelo que habría visto si hubiera mirado en todas las otras direcciones, reconstruyendo una imagen completa de 360 grados de su entorno.
"Al igual que traes información previa sobre las regularidades que existen en entornos previamente experimentados, como todas las tiendas de comestibles en las que has estado alguna vez, este agente busca de manera no exhaustiva", dijo Grauman. "Aprende a hacerconjeturas inteligentes sobre dónde recopilar información visual para tener éxito en las tareas de percepción "
Uno de los principales desafíos que los científicos se propusieron fue diseñar un agente que pueda trabajar bajo estrictas limitaciones de tiempo. Esto sería crítico en una aplicación de búsqueda y rescate. Por ejemplo, en un edificio en llamas se llamaría un robotpara localizar rápidamente personas, llamas y materiales peligrosos y transmitir esa información a los bomberos.
Por ahora, el nuevo agente opera como una persona parada en un lugar, con la capacidad de apuntar una cámara en cualquier dirección pero no puede moverse a una nueva posición. O, de manera equivalente, el agente podría mirar un objeto que essostener y decidir cómo girar el objeto para inspeccionar otro lado del mismo. A continuación, los investigadores están desarrollando el sistema para trabajar en un robot totalmente móvil.
Utilizando las supercomputadoras del Centro de Computación Avanzada de Texas de UT Austin y el Departamento de Ciencias de la Computación, tomó aproximadamente un día entrenar a su agente utilizando un enfoque de inteligencia artificial llamado aprendizaje de refuerzo. El equipo, con el liderazgo de Ramakrishnan, desarrolló un método para acelerar elcapacitación: crear un segundo agente, llamado compinche, para ayudar al agente principal.
"Usar información adicional que está presente únicamente durante el entrenamiento ayuda al agente [principal] a aprender más rápido", dijo Ramakrishnan.
Esta investigación fue apoyada, en parte, por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU., La Oficina de Investigación Científica de la Fuerza Aérea de EE. UU., IBM Corp. y Sony Corp.
Fuente de la historia :
Materiales proporcionado por Universidad de Texas en Austin . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :