Los avances recientes en la creación de sistemas artificiales que superan a los humanos en una gran variedad de juegos desafiantes tienen sus raíces en redes neuronales inspiradas en el procesamiento de información en el cerebro. En una revisión publicada el 14 de junio en Tendencias en ciencias cognitivas , investigadores de Google DeepMind y la Universidad de Stanford actualizan una teoría desarrollada originalmente para explicar cómo aprenden los humanos y otros animales, y resaltan su importancia potencial como marco para guiar el desarrollo de agentes con inteligencia artificial.
publicado por primera vez en 1995 Psychol Rev., 102 3: 419-57, la teoría establece que el aprendizaje es el producto de dos sistemas de aprendizaje complementarios. El primer sistema adquiere gradualmente conocimiento y habilidades a partir de la exposición a experiencias, y elel segundo almacena experiencias específicas para que puedan reproducirse para permitir su integración efectiva en el primer sistema. El documento se basó en una teoría anterior del influyente neurocientífico computacional británico David Marr y en descubrimientos recientes en métodos de aprendizaje de redes neuronales.
"La evidencia parece convincente de que el cerebro tiene estos dos tipos de sistemas de aprendizaje, y la teoría de los sistemas de aprendizaje complementarios explica cómo se complementan entre sí para proporcionar una solución poderosa a un problema de aprendizaje clave que enfrenta el cerebro", dice el profesor de StanfordPsicología James McClelland, autor principal del artículo de 1995 y autor principal de la revisión actual.
El primer sistema en la teoría propuesta, ubicado en la neocorteza del cerebro, fue inspirado por los precursores de las redes neuronales profundas de hoy. Al igual que con las redes profundas de hoy, estos sistemas contienen varias capas de neuronas entre la entrada y la salida, y el conocimiento enestas redes están en sus conexiones. Además, sus conexiones se programan gradualmente por experiencia, lo que da lugar a su capacidad de reconocer objetos, percibir el habla, comprender y producir lenguaje, e incluso seleccionar acciones óptimas en juegos y otros entornos donde la acción inteligentedepende del conocimiento adquirido.
Tales sistemas enfrentan un dilema cuando se debe aprender nueva información: si se realizan cambios lo suficientemente grandes en las conexiones para forzar el nuevo conocimiento a las conexiones rápidamente, distorsionará radicalmente todo el otro conocimiento ya almacenado en las conexiones.
"Ahí es donde entra el sistema de aprendizaje complementario", dice McClelland. En humanos y otros mamíferos, este segundo sistema está ubicado en una estructura llamada hipocampo ". Al almacenar inicialmente información sobre la nueva experiencia en el hipocampo, lo hacemosdisponible para uso inmediato y también lo mantenemos disponible para que pueda volver a reproducirse en la corteza, intercalando con experiencia continua e información almacenada de otras experiencias relevantes ". Esta configuración de dos sistemas, por lo tanto, permite el aprendizaje inmediato y también gradualintegración en la representación estructurada del conocimiento en la neocorteza.
"Los componentes de la arquitectura de red neuronal que lograron lograr un rendimiento a nivel humano en una variedad de juegos de computadora como Space Invaders y Breakout se inspiraron en la teoría de sistemas de aprendizaje complementarios", dice el neurocientífico cognitivo DeepMind Dharshan Kumaran, el primer autor de la revisión."Como en la teoría, estas redes neuronales explotan un búfer de memoria similar al hipocampo que almacena episodios recientes de juego y los reproduce de forma intercalada. Esto amplifica en gran medida el uso de la experiencia de juego real y evita la tendencia a una carrera local en particularde experiencia para dominar el aprendizaje en el sistema "
Kumaran ha colaborado tanto con McClelland como con el cofundador de DeepMind, Demis Hassabis también coautor de la Review, en un trabajo que amplió el papel del hipocampo tal como se preveía en la versión de 1995 de la teoría de los sistemas de aprendizaje complementarios.
"En mi opinión", dice Hassabis, "es probable que la versión extendida de la teoría de los sistemas de aprendizaje complementarios continúe proporcionando un marco para la investigación futura, no solo en neurociencia sino también en la búsqueda de desarrollar Inteligencia Artificial General, nuestro objetivoen Google DeepMind "
Fuente de la historia :
Materiales proporcionados por prensa celular . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :