Un proyecto del Ejército de los EE. UU. Ha desarrollado un nuevo marco para redes neuronales profundas que permite a los sistemas de inteligencia artificial aprender mejor las nuevas tareas mientras se olvida menos de lo que han aprendido con respecto a tareas anteriores.
Los investigadores de la Universidad Estatal de Carolina del Norte, financiados por el Ejército, también han demostrado que usar el marco para aprender una nueva tarea puede mejorar la inteligencia artificial en la realización de tareas anteriores, un fenómeno llamado transferencia hacia atrás.
"El Ejército debe estar preparado para luchar en cualquier parte del mundo, por lo que sus sistemas inteligentes también deben estar preparados", dijo la Dra. Mary Anne Fields, gerente de programa de Sistemas Inteligentes en la Oficina de Investigación del Ejército, un elemento de las capacidades de combate del Ejército de EE. UU.Laboratorio de Investigación del Ejército del Comando de Desarrollo ". Esperamos que los sistemas inteligentes del Ejército adquieran continuamente nuevas habilidades a medida que realizan misiones en los campos de batalla de todo el mundo sin olvidar las habilidades que ya han sido entrenadas. Por ejemplo, mientras realiza una operación urbana, un robot con ruedas puede aprendernuevos parámetros de navegación para ciudades urbanas densas, pero aún necesita operar de manera eficiente en un entorno previamente encontrado como un bosque ".
El equipo de investigación propuso un nuevo marco, llamado Aprender a crecer, para el aprendizaje continuo, que desacopla el aprendizaje de la estructura de la red y el aprendizaje de parámetros del modelo. En las pruebas experimentales superó los enfoques permeables del aprendizaje continuo.
"Los sistemas de IA de redes neuronales profundas están diseñados para aprender tareas estrechas", dijo Xilai Li, coautora principal del artículo y candidata a doctorado en NC State. "Como resultado, puede suceder una de varias cosasAl aprender nuevas tareas, los sistemas pueden olvidar las viejas tareas al aprender las nuevas, lo que se llama olvido catastrófico. Los sistemas pueden olvidar algunas de las cosas que sabían sobre las viejas tareas, mientras que no aprenden a hacer otras nuevas. O los sistemas pueden arreglar las viejas tareasmientras se agregan nuevas tareas, lo que limita la mejora y conduce rápidamente a un sistema de IA que es demasiado grande para operar de manera eficiente. El aprendizaje continuo, también llamado aprendizaje permanente o aprender a aprender, está tratando de resolver el problema ".
Para comprender el marco de Aprender a crecer, piense en las redes neuronales profundas como una tubería llena de múltiples capas. Los datos sin procesar entran en la parte superior de la tubería y las salidas de tareas salen de la parte inferior. Cada "capa" en la tubería es unCálculo que manipula los datos para ayudar a la red a cumplir su tarea, como identificar objetos en una imagen digital. Existen múltiples formas de organizar las capas en la tubería, que corresponden a diferentes "arquitecturas" de la red.
Al pedirle a una red neuronal profunda que aprenda una nueva tarea, el marco Aprender a crecer comienza realizando algo llamado optimización de la arquitectura neuronal explícita a través de la búsqueda. Lo que esto significa es que a medida que la red llega a cada capa de su sistema, puededecida hacer una de cuatro cosas: omita la capa; use la capa de la misma manera que las tareas anteriores la usaron; conecte un adaptador liviano a la capa, que la modifica ligeramente; o cree una capa completamente nueva.
Esta optimización de arquitectura presenta efectivamente la mejor topología, o serie de capas, necesarias para realizar la nueva tarea. Una vez que se completa, la red utiliza la nueva topología para capacitarse sobre cómo realizar la tarea, como cualquier otrasistema de inteligencia artificial de aprendizaje profundo.
"Realizamos experimentos utilizando varios conjuntos de datos, y lo que descubrimos es que cuanto más similar es una nueva tarea a las tareas anteriores, mayor es la superposición en términos de las capas existentes que se mantienen para realizar la nueva tarea", Dijo Li." Lo que es más interesante es que, con la topología optimizada o "aprendida", una red capacitada para realizar nuevas tareas olvida muy poco de lo que necesitaba para realizar las tareas más antiguas, incluso si las tareas más antiguasno fueron similares "
Los investigadores también realizaron experimentos comparando la capacidad del marco de Aprender a crecer para aprender nuevas tareas con varios otros métodos de aprendizaje continuo, y descubrieron que el marco de Aprender a crecer tenía una mayor precisión al completar nuevas tareas.
Para probar cuánto puede haber olvidado cada red al aprender la nueva tarea, los investigadores luego probaron la precisión de cada sistema para realizar las tareas más antiguas, y el marco de Learn to Grow nuevamente superó a las otras redes.
"En algunos casos, el marco Aprender a crecer en realidad mejoró en la realización de las tareas antiguas", dijo Caiming Xiong, director de investigación de Salesforce Research y coautor del trabajo. "Esto se llama transferencia hacia atrás y ocurrecuando descubres que aprender una nueva tarea te hace mejor en una tarea antigua. Lo vemos en las personas todo el tiempo; no tanto con la IA ".
"Esta inversión del Ejército extiende las técnicas actuales de aprendizaje automático que guiarán a nuestros investigadores del Laboratorio de Investigación del Ejército a medida que desarrollan aplicaciones robóticas, como maniobras inteligentes y aprender a reconocer objetos nuevos", dijo Fields. "Esta investigación trae inteligencia artificialun paso más cerca de proporcionar a nuestros guerreros sistemas efectivos no tripulados que puedan desplegarse en el campo "
El documento, "Aprender a crecer: un marco de aprendizaje de estructura continua para superar el olvido catastrófico", se presentará en la 36ª Conferencia Internacional sobre Aprendizaje Automático, que se celebrará del 9 al 15 de junio en Long Beach, California.el documento es Tianfu Wu, Ph.D., profesor asistente de ingeniería eléctrica e informática en NC State, Xilai Li, estudiante de doctorado en NC State, y Yingbo Zhou de Salesforce Research. El documento fue escrito por Richard Socher yCaiming Xiong de Salesforce Research.
El trabajo también fue apoyado por la National Science Foundation. Parte del trabajo se realizó mientras Li era pasante de verano en Salesforce AI Research.
Fuente de la historia :
Materiales proporcionado por Laboratorio de investigación del ejército de EE. UU. . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :