La rápida progresión de la tecnología ha llevado a un gran aumento en el uso de energía para procesar los tesoros masivos de datos generados por los dispositivos. Pero los investigadores de la Escuela de Ingeniería Cockrell de la Universidad de Texas en Austin han encontrado la manera de hacer el nuevogeneración de computadoras inteligentes con mayor eficiencia energética.
Tradicionalmente, los chips de silicio han formado los bloques de construcción de la infraestructura que alimenta las computadoras. Pero esta investigación utiliza componentes magnéticos en lugar de silicio y descubre nueva información sobre cómo la física de los componentes magnéticos puede reducir los costos de energía y los requisitos de los algoritmos de entrenamiento.redes neuronales que pueden pensar como humanos y hacer cosas como reconocer imágenes y patrones.
"En este momento, los métodos para entrenar sus redes neuronales son muy intensivos en energía", dijo Jean Anne Incorvia, profesora asistente en el Departamento de Ingeniería Eléctrica e Informática de la Escuela Cockrell. "Lo que nuestro trabajo puede hacer es ayudar a reducir la capacitaciónesfuerzo y costos de energía "
Los hallazgos de los investigadores se publicaron esta semana en la PIO Nanotecnología . Incorvia dirigió el estudio con el primer autor y estudiante de posgrado de segundo año Can Cui. Incorvia y Cui descubrieron que el espaciado de nanocables magnéticos, que actúan como neuronas artificiales, de cierta manera aumenta naturalmente la capacidad de las neuronas artificiales para competir entre sícon los más activados ganando. Lograr este efecto, conocido como "inhibición lateral", tradicionalmente requiere circuitos adicionales dentro de las computadoras, lo que aumenta los costos y requiere más energía y espacio.
Incorvia dijo que su método proporciona una reducción de energía de 20 a 30 veces la cantidad utilizada por un algoritmo de retropropagación estándar al realizar las mismas tareas de aprendizaje.
De la misma manera que los cerebros humanos contienen neuronas, las computadoras de la nueva era tienen versiones artificiales de estas células nerviosas integrales. La inhibición lateral se produce cuando las neuronas que disparan más rápido pueden evitar que las neuronas más lentas disparen. En la informática, esto reduce el uso de energíaen el procesamiento de datos.
Incorvia explica que la forma en que operan las computadoras está cambiando fundamentalmente. Una tendencia importante es el concepto de computación neuromórfica, que consiste esencialmente en diseñar computadoras para pensar como cerebros humanos. En lugar de procesar tareas de una en una, estos dispositivos más inteligentes están destinados a analizarenormes cantidades de datos simultáneamente. Estas innovaciones han impulsado la revolución en el aprendizaje automático y la inteligencia artificial que ha dominado el panorama tecnológico en los últimos años.
Esta investigación se centró en las interacciones entre dos neuronas magnéticas y los resultados iniciales en las interacciones de múltiples neuronas. El siguiente paso consiste en aplicar los hallazgos a conjuntos más grandes de neuronas múltiples, así como la verificación experimental de sus hallazgos.
La investigación fue financiada por un Premio CAREER de la National Science Foundation y Sandia National Laboratories, con recursos del Centro de Computación Avanzada de Texas de UT.
Fuente de la historia :
Materiales proporcionado por Universidad de Texas en Austin . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :