Un grupo internacional de investigadores ha dado un paso decisivo hacia la creación de la tecnología para lograr simulaciones de redes a escala cerebral en futuras supercomputadoras de la clase exaescala. El avance, publicado en Fronteras en neuroinformática , permite representar partes más grandes del cerebro humano, utilizando la misma cantidad de memoria de computadora. Simultáneamente, el nuevo algoritmo acelera significativamente las simulaciones cerebrales en supercomputadoras existentes.
El cerebro humano es un órgano de increíble complejidad, compuesto por 100 mil millones de células nerviosas interconectadas. Sin embargo, incluso con la ayuda de las supercomputadoras más poderosas disponibles, actualmente es imposible simular el intercambio de señales neuronales en redes de este tamaño.
"Desde 2014, nuestro software puede simular alrededor del uno por ciento de las neuronas en el cerebro humano con todas sus conexiones", dice Markus Diesmann, director del Instituto de Neurociencia y Medicina de Jülich INM-6. Para lograrloHazaña impresionante, el software requiere toda la memoria principal de supercomputadoras de petaescala, como la computadora K en Kobe y JUQUEEN en Jülich.
Diesmann ha estado trabajando durante más de 20 años en el software de simulación NEST, un código de simulación de código abierto y gratuito de uso generalizado por la comunidad neurocientífica y un simulador central del Proyecto Europeo del Cerebro Humano, en el que lidera proyectos enlas áreas de Neurociencia Teórica y en la Plataforma de Computación y Análisis de Alto Rendimiento.
Con NEST, el comportamiento de cada neurona en la red está representado por un puñado de ecuaciones matemáticas. Las computadoras futuras a exaescala, como la computadora post-K planeada en Kobe y JUWELS en Jülich, superarán el rendimiento de las tecnologías de gama alta de hoy.supercomputadoras de 10 a 100 veces. Por primera vez, los investigadores tendrán la potencia de la computadora disponible para simular redes neuronales en la escala del cerebro humano.
aparentemente un callejón sin salida
Si bien la tecnología de simulación actual permitió a los investigadores comenzar a estudiar grandes redes neuronales, también representó un callejón sin salida en el camino hacia la tecnología de exaescala. Las supercomputadoras están compuestas por aproximadamente 100,000 computadoras pequeñas, llamadas nodos, cada una equipada con una cantidad de procesadores que hacen lo realcálculos.
"Antes de que pueda tener lugar una simulación de red neuronal, las neuronas y sus conexiones deben crearse virtualmente, lo que significa que deben instanciarse en la memoria de los nodos. Durante la simulación, una neurona no sabe en cuál de los nodostiene neuronas objetivo, por lo tanto, sus pulsos eléctricos cortos deben enviarse a todos los nodos. Luego, cada nodo verifica cuál de todos estos pulsos eléctricos es relevante para las neuronas virtuales que existen en este nodo ", explica Susanne Kunkel, del KTH Royal Institute ofTecnología en Estocolmo.
El algoritmo actual para la creación de redes es eficiente porque todos los nodos construyen su parte particular de la red al mismo tiempo. Sin embargo, enviar todos los pulsos eléctricos a todos los nodos no es adecuado para simulaciones en sistemas de exaescala.
"Verificar la relevancia de cada pulso eléctrico de manera eficiente requiere un bit de información por procesador para cada neurona en toda la red. Para una red de mil millones de neuronas, una gran parte de la memoria en cada nodo se consume con solo este bitde información por neurona ", añade Markus Diesmann.
Este es el principal problema al simular redes aún más grandes: la cantidad de memoria de la computadora requerida por procesador para los Bits adicionales por neurona aumenta con el tamaño de la red neuronal. A la escala del cerebro humano, esto requeriría la memoria disponiblea cada procesador 100 veces más grande que en las supercomputadoras actuales. Sin embargo, es poco probable que este sea el caso en la próxima generación de supercomputadoras. La cantidad de procesadores por nodo de cómputo aumentará, pero la memoria por procesador y la cantidad de nodos de cómputopreferirá permanecer igual.
Avance por nuevo algoritmo
El avance publicado en Fronteras en neuroinformática es una nueva forma de construir la red neuronal en la supercomputadora. Debido a los algoritmos, la memoria requerida en cada nodo ya no aumenta con el tamaño de la red. Al comienzo de la simulación, la nueva tecnología permite que los nodos intercambien información sobrequién necesita enviar datos de actividad neuronal a quién. Una vez que se dispone de este conocimiento, el intercambio de datos de actividad neuronal entre nodos se puede organizar de modo que un nodo solo reciba la información que requiere. Un bit adicional por cada neurona en la red ya no esnecesario.
un efecto secundario beneficioso
Mientras probaban sus nuevas ideas, los científicos obtuvieron una visión clave adicional, informa Susanne Kunkel: "Al analizar los nuevos algoritmos, nos dimos cuenta de que nuestra nueva tecnología no solo permitiría simulaciones en sistemas de exaescala, sino que también haría simulaciones más rápidas en la actualidad.supercomputadoras disponibles. "
De hecho, dado que el consumo de memoria ahora está bajo control, la velocidad de las simulaciones se convierte en el foco principal de futuros desarrollos tecnológicos. Por ejemplo, una gran simulación de 0,52 mil millones de neuronas conectadas por 5,8 billones de sinapsis que se ejecutan en la supercomputadora JUQUEEN en Jülich anteriormenterequirió 28,5 minutos para calcular un segundo de tiempo biológico. Con la simulación mejorada de estructuras de datos, el tiempo se reduce a 5,2 minutos.
"Con la nueva tecnología podemos explotar el mayor paralelismo de los microprocesadores modernos mucho mejor que antes, lo que será aún más importante en las computadoras de exaescala", comenta Jakob Jordan, autor principal del estudio, de Forschungszentrum Jülich.
"La combinación de hardware a exaescala y software apropiado trae a nuestro alcance investigaciones de aspectos fundamentales de la función cerebral, como la plasticidad y el desarrollo del aprendizaje durante minutos de tiempo biológico", agrega Markus Diesmann.
Con una de las próximas versiones del software de simulación NEST, los investigadores harán que su logro esté disponible gratuitamente para la comunidad como código abierto.
"Hemos estado usando NEST para simular la dinámica compleja de los circuitos de los ganglios basales en la salud y la enfermedad de Parkinson en la computadora K. Estamos entusiasmados de escuchar las noticias sobre la nueva generación de NEST, que nos permitirá ejecutarsimulaciones a escala cerebral en la computadora post-K para aclarar los mecanismos neuronales del control motor y las funciones mentales ", dice Kenji Doya del Instituto de Ciencia y Tecnología de Okinawa OIST.
"El estudio es un ejemplo maravilloso de la colaboración internacional en el esfuerzo por construir computadoras a exaescala. Es importante que tengamos aplicaciones listas que puedan usar estas preciosas máquinas desde el primer día que estén disponibles", concluye Mitsuhisa Sato de RIKEN.Instituto Avanzado de Ciencias de la Computación en Kobe.
Fuente de la historia :
Materiales proporcionados por Fronteras . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :