Las fuentes de luz sincrotrón son instalaciones potentes que producen luz en una variedad de "colores" o longitudes de onda, desde el infrarrojo hasta los rayos X, al acelerar los electrones para emitir luz en haces controlados.
Los sincrotrones como la Fuente de luz avanzada en el Laboratorio Nacional Lawrence Berkeley del Departamento de Energía Berkeley Lab permiten a los científicos explorar muestras en una variedad de formas utilizando esta luz, en campos que van desde la ciencia de los materiales, la biología y la química hasta la física y el medio ambienteCiencias.
Los investigadores han encontrado formas de actualizar estas máquinas para producir haces de luz más intensos, enfocados y consistentes que permitan estudios nuevos, más complejos y detallados en una amplia gama de tipos de muestras.
Pero algunas propiedades del haz de luz aún exhiben fluctuaciones en el rendimiento que presentan desafíos para ciertos experimentos.
Abordando un problema de décadas
Muchas de estas instalaciones de sincrotrón brindan diferentes tipos de luz para docenas de experimentos simultáneos. Y pequeños ajustes para mejorar las propiedades del haz de luz en estas líneas de haz individuales pueden retroalimentar el rendimiento general del haz de luz en toda la instalación. Diseñadores y operadores de sincrotrónhan luchado durante décadas con una variedad de enfoques para compensar las fluctuaciones más obstinadas.
Y ahora, un gran equipo de investigadores en Berkeley Lab y UC Berkeley ha demostrado con éxito cómo las herramientas de aprendizaje automático pueden mejorar la estabilidad del tamaño del haz de luz para los experimentos a través de ajustes que cancelan en gran medida estas fluctuaciones, reduciéndolos de unnivel de unos pocos por ciento a 0.4 por ciento, con precisión submicrónica por debajo de 1 millonésima parte de un metro.
Las herramientas se detallan en un estudio publicado el 6 de noviembre en la revista Cartas de revisión física .
El aprendizaje automático es una forma de inteligencia artificial en la que los sistemas informáticos analizan un conjunto de datos para construir programas predictivos que resuelven problemas complejos. Los algoritmos de aprendizaje automático utilizados en el ALS se conocen como una forma de "red neuronal" porqueestán diseñados para reconocer patrones en los datos de una manera que se asemeja a las funciones del cerebro humano.
En este estudio, los investigadores introdujeron datos del haz de electrones del ALS, que incluía las posiciones de los dispositivos magnéticos utilizados para producir luz del haz de electrones, en la red neuronal. La red neuronal reconoció patrones en estos datos e identificó la diferencialos parámetros del dispositivo afectaron el ancho del haz de electrones. El algoritmo de aprendizaje automático también recomendó ajustes en los imanes para optimizar el haz de electrones.
Debido a que el tamaño del haz de electrones refleja el haz de luz resultante producido por los imanes, el algoritmo también optimizó el haz de luz que se utiliza para estudiar las propiedades del material en el ALS.
La solución podría tener un impacto global
La demostración exitosa en el ALS muestra cómo la técnica también podría aplicarse en general a otras fuentes de luz, y será especialmente beneficiosa para estudios especializados habilitados por una actualización del ALS conocido como el proyecto ALS-U.
"Esa es la belleza de esto", dijo Hiroshi Nishimura, un afiliado de Berkeley Lab que se retiró el año pasado y se había involucrado en discusiones tempranas y exploraciones de una solución de aprendizaje automático para el problema de estabilidad del tamaño del haz de luz.acelerador es, y cualquiera que sea la solución convencional, esta solución puede estar por encima de eso "
Steve Kevan, director de ALS, dijo: "Este es un avance muy importante para ALS y ALS-U. Durante varios años hemos tenido problemas con los artefactos en las imágenes de nuestros microscopios de rayos X. Este estudio presenta un nuevoenfoque basado en el aprendizaje automático y ha resuelto en gran medida el problema "
El proyecto ALS-U aumentará el enfoque estrecho de los haces de luz desde un nivel de alrededor de 100 micras hasta menos de 10 micras y también creará una mayor demanda de propiedades de haz de luz consistentes y confiables.
La técnica de aprendizaje automático se basa en soluciones convencionales que se han mejorado a lo largo de las décadas desde que se inició el ALS en 1993, y que se basan en ajustes constantes a los imanes a lo largo del anillo de ALS que compensan en tiempo real los ajustes en líneas de haz individuales.
Nishimura, que había sido parte del equipo que puso en línea el ALS hace más de 25 años, dijo que comenzó a estudiar la posible aplicación de herramientas de aprendizaje automático para aplicaciones de acelerador hace unos cuatro o cinco años. Sus conversaciones se extendieron aexpertos en informática y aceleradores en Berkeley Lab y en UC Berkeley, y el concepto comenzó a gelificarse hace unos dos años.
Prueba exitosa durante las operaciones de ALS
Los investigadores probaron con éxito el algoritmo en dos sitios diferentes alrededor del anillo de ALS a principios de este año. Alertaron a los usuarios de ALS que realizaban experimentos sobre la prueba del nuevo algoritmo y les pidieron que dieran su opinión sobre cualquier problema de rendimiento inesperado.
"Tuvimos pruebas constantes en las operaciones de los usuarios de abril a junio de este año", dijo C. Nathan Melton, becario postdoctoral en ALS que se unió al equipo de aprendizaje automático en 2018 y trabajó en estrecha colaboración con Shuai Liu, ex UC Berkeleyestudiante graduado que contribuyó considerablemente al esfuerzo y es coautor del estudio.
Simon Leemann, subdirector de Operaciones y Desarrollo del Acelerador en la ALS y el investigador principal en el esfuerzo de aprendizaje automático, dijo: "No tuvimos ninguna retroalimentación negativa en las pruebas. Una de las líneas de monitoreo que utilizó el equipo fue unlínea de luz de diagnóstico que mide constantemente el rendimiento del acelerador, y otra era una línea de luz donde los experimentos se estaban ejecutando activamente ". Alex Hexemer, científico senior de ALS y líder del programa de computación, fue el co-líder en el desarrollo de la nueva herramienta.
La línea de luz con los experimentos activos, Beamline 5.3.2.2 , utiliza una técnica conocida como microscopía de rayos X de transmisión de exploración o STXM, y los científicos allí informaron un mejor rendimiento del haz de luz en los experimentos.
El equipo de aprendizaje automático observó que el rendimiento mejorado del haz de luz también es adecuado para técnicas avanzadas de rayos X como la ptychography, que puede resolver la estructura de las muestras hasta el nivel de nanómetros billonésimas de metro;y espectroscopía de correlación de fotones de rayos X, o XPCS, que es útil para estudiar cambios rápidos en materiales altamente concentrados que no tienen una estructura uniforme.
Otros experimentos que exigen un haz de luz confiable y altamente enfocado de intensidad constante donde interactúa con la muestra también pueden beneficiarse de la mejora del aprendizaje automático, anotó Leemann.
"Los requisitos de los experimentos son cada vez más estrictos, con escaneos de áreas más pequeñas en las muestras", dijo. "Tenemos que encontrar nuevas formas de corregir estas imperfecciones".
Señaló que el problema central con el que ha luchado la comunidad de la fuente de luz, y que las herramientas de aprendizaje automático abordan, es el tamaño del haz de electrones vertical fluctuante en el punto de origen de la línea del haz.
El punto fuente es el punto donde el haz de electrones en la fuente de luz emite la luz que viaja al experimento de una línea de haz específica. Si bien el ancho del haz de electrones en este punto es naturalmente estable, su altura o tamaño de fuente vertical puede fluctuar.
Abrir la 'caja negra' de inteligencia artificial
"Este es un muy buen ejemplo de la ciencia del equipo", dijo Leemann, señalando que el esfuerzo superó un cierto escepticismo inicial sobre la viabilidad del aprendizaje automático para mejorar el rendimiento del acelerador, y abrió la "caja negra" de cómo pueden producir tales herramientasbeneficios reales.
"Esta no es una herramienta que tradicionalmente ha sido parte de la comunidad de aceleradores. Logramos reunir a personas de dos comunidades diferentes para solucionar un problema realmente difícil". Alrededor de 15 investigadores de Berkeley Lab participaron en el esfuerzo.
"El aprendizaje automático requiere fundamentalmente dos cosas: el problema debe ser reproducible y se necesitan grandes cantidades de datos", dijo Leemann. "Nos dimos cuenta de que podíamos utilizar todos nuestros datos y tener un algoritmo que reconociera patrones".
Los datos mostraron las pequeñas fallas en el rendimiento del haz de electrones a medida que se realizaban ajustes en las líneas de haz individuales, y el algoritmo encontró una forma de sintonizar el haz de electrones para que negara este impacto mejor que los métodos convencionales.
"El problema consiste en aproximadamente 35 parámetros, demasiado complejo para que podamos entendernos a nosotros mismos", dijo Leemann. "Lo que hizo la red neuronal una vez que fue entrenada - nos dio una predicción de lo que sucedería para la fuentetamaño en la máquina si no hizo nada para corregirlo.
"Hay un parámetro adicional en este modelo que describe cómo los cambios que hacemos en un cierto tipo de imán afectan el tamaño de la fuente. Entonces, todo lo que tenemos que hacer es elegir el parámetro que, de acuerdo con esta predicción de la red neuronal- da como resultado el tamaño del haz que queremos crear y aplicarlo a la máquina ", agregó Leemann.
El sistema dirigido por algoritmos ahora puede hacer correcciones a una velocidad de hasta 10 veces por segundo, aunque tres veces por segundo parece ser adecuado para mejorar el rendimiento en esta etapa, dijo Leemann.
La búsqueda de nuevas aplicaciones de aprendizaje automático
El equipo de aprendizaje automático recibió dos años de financiación del Departamento de Energía de EE. UU. En agosto de 2018 para llevar a cabo este y otros proyectos de aprendizaje automático en colaboración con Stanford Synchrotron Radiation Lightsource en SLAC National Accelerator Laboratory ". Tenemos planes para mantenerdesarrollando esto y también tenemos un par de nuevas ideas de aprendizaje automático que nos gustaría probar ", dijo Leemann.
Nishimura dijo que las palabras de moda "inteligencia artificial" parecen haber entrado y salido de la comunidad de investigación durante muchos años, sin embargo, "esta vez finalmente parece ser algo real".
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional Lawrence Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :