Un equipo de científicos del Laboratorio Nacional Brookhaven del Departamento de Energía de EE. UU. Y el Laboratorio Nacional Lawrence Berkeley diseñó, creó y probó con éxito un nuevo algoritmo para tomar decisiones de medición científicas más inteligentes. El algoritmo, una forma de inteligencia artificial IA, puedetomar decisiones autónomas para definir y realizar el siguiente paso de un experimento.El equipo describió las capacidades y la flexibilidad de su nueva herramienta de medición en un documento publicado el 14 de agosto de 2019 en Informes científicos .
Desde Galileo y Newton hasta el reciente descubrimiento de ondas gravitacionales, la realización de experimentos científicos para comprender el mundo que nos rodea ha sido la fuerza impulsora de nuestro avance tecnológico durante cientos de años. Mejorar la forma en que los investigadores hacen sus experimentos puede tener un tremendo impacto en cómorápidamente esos experimentos arrojan resultados aplicables para nuevas tecnologías.
En las últimas décadas, los investigadores han acelerado sus experimentos a través de la automatización y una variedad cada vez mayor de herramientas de medición rápida. Sin embargo, algunos de los desafíos científicos más interesantes e importantes, como la creación de materiales de batería mejorados para el almacenamiento de energía o nuevosmateriales cuánticos para nuevos tipos de computadoras: aún requieren experimentos muy exigentes y que requieren mucho tiempo.
Al crear un nuevo algoritmo de toma de decisiones como parte de una configuración experimental totalmente automatizada, el equipo interdisciplinario de dos de las instalaciones de usuario de la Oficina de Ciencia del DOE de Brookhaven: el Centro de Nanomateriales Funcionales CFN y la Fuente de Luz Nacional de Sincrotrón II NSLS-II - y el Centro de Berkeley Lab para Matemáticas Avanzadas para Aplicaciones de Investigación Energética CAMERA ofrece la posibilidad de estudiar estos desafíos de una manera más eficiente.
El desafío de la complejidad
El objetivo de muchos experimentos es obtener conocimiento sobre el material que se estudia, y los científicos tienen una forma bien probada de hacerlo: toman una muestra del material y miden cómo reacciona a los cambios en su entorno.
Un enfoque estándar para los científicos en instalaciones de usuarios como NSLS-II y CFN es escanear manualmente las mediciones de un experimento determinado para determinar la siguiente área donde podrían querer realizar un experimento. Pero acceso a la gama alta de estas instalacioneslas herramientas de caracterización de materiales son limitadas, por lo que el tiempo de medición es valioso. Un equipo de investigación podría tener solo unos pocos días para medir sus materiales, por lo que deben aprovechar al máximo cada medición.
"La clave para lograr un número mínimo de mediciones y la calidad máxima del modelo resultante es ir a lugares donde las incertidumbres son grandes", dijo Marcus Noack, un investigador postdoctoral en CAMERA y autor principal del estudio. "Realizando mediciones allí habrá másreducir efectivamente la incertidumbre general del modelo "
Como señaló Kevin Yager, coautor y científico de CFN, "El objetivo final no es solo tomar datos más rápido sino también mejorar la calidad de los datos que recopilamos. Pienso en ello como los experimentadores que cambian de microgestión de susexperimentar para gestionar a un nivel superior. En lugar de tener que decidir dónde medir a continuación en la muestra, los científicos pueden pensar en el panorama general, que en última instancia es lo que nosotros como científicos estamos tratando de hacer ".
"Este nuevo enfoque es un ejemplo aplicado de inteligencia artificial", dijo el coautor Masafumi Fukuto, científico de NSLS-II. "El algoritmo de toma de decisiones está reemplazando la intuición del experimentador humano y puede escanear a través de los datos ytomar decisiones inteligentes sobre cómo debe proceder el experimento "
¿Más información por menos?
En la práctica, antes de comenzar un experimento, los científicos definen un conjunto de objetivos que desean obtener de la medición. Con estos objetivos establecidos, el algoritmo analiza los datos medidos previamente mientras el experimento está en curso para determinar la próxima medición.En su búsqueda de la mejor medición siguiente, el algoritmo crea un modelo sustituto de los datos, que es una suposición educada sobre cómo se comportará el material en los próximos pasos posibles, y calcula la incertidumbre, básicamente, la confianza que tiene en suadivinar: para cada próximo paso posible. En función de esto, selecciona la opción más incierta para medir a continuación. El truco aquí es elegir el paso más incierto para medir a continuación, el algoritmo maximiza la cantidad de conocimiento que gana al hacer esoEl algoritmo no solo maximiza la ganancia de información durante la medición, sino que también define cuándo finalizar el experimento al determinar el momento en que cualquier medición adicional no resultaría en máswledge.
"La idea básica es, dados un montón de experimentos, ¿cómo puedes elegir automáticamente el siguiente mejor?", Dijo James Sethian, director de CAMERA y coautor del estudio. "Marcus ha construido un mundo que construye unmodelo sustituto aproximado sobre la base de sus experimentos anteriores y sugiere el mejor o más apropiado experimento para probar a continuación "
Cómo llegamos aquí
Para hacer realidad los experimentos autónomos, el equipo tuvo que abordar tres piezas importantes: la automatización de la recopilación de datos, el análisis en tiempo real y, por supuesto, el algoritmo de toma de decisiones.
"Esta es una parte emocionante de esta colaboración", dijo Fukuto. "Todos proporcionamos una pieza esencial para ello: el equipo de CAMERA trabajó en el algoritmo de toma de decisiones, Kevin de CFN desarrolló el análisis de datos en tiempo real, y nosotrosen NSLS-II proporcionó la automatización para las mediciones "
El equipo implementó por primera vez su algoritmo de toma de decisiones en la línea de luz de dispersión de materiales complejos CMS en NSLS-II, que CFN y NSLS-II operan en colaboración. Este instrumento ofrece rayos X ultrabrillantes para estudiar la nanoestructura de varios materialesComo científico principal de la línea de luz de este instrumento, Fukuto ya había diseñado la línea de luz teniendo en cuenta la automatización. La línea de luz ofrece un robot de intercambio de muestras, movimiento automático de muestras en varias direcciones y muchas otras herramientas útiles para garantizar mediciones rápidas. Junto con Yager'sanálisis de datos en tiempo real, la línea de luz era, por diseño, el ajuste perfecto para el primer experimento "inteligente".
El primer experimento "inteligente"
El primer experimento totalmente autónomo que realizó el equipo fue mapear el perímetro de una gotita donde las nanopartículas se segregan usando una técnica llamada dispersión de rayos X de ángulo pequeño en la línea del haz CMS. Durante la dispersión de rayos X de ángulo pequeño, los científicos brillan intensamenterayos X en la muestra y, dependiendo de la estructura atómica a nanoescala de la muestra, los rayos X rebotan en diferentes direcciones. Luego, los científicos usan un detector grande para capturar los rayos X dispersos y calcular las propiedades de la muestraen el punto iluminado. En este primer experimento, los científicos compararon el enfoque estándar de medir la muestra con las medidas tomadas cuando el nuevo algoritmo de toma de decisiones estaba tomando las decisiones. El algoritmo pudo identificar el área de la gota y se centró en subordes y partes internas en lugar del fondo.
"Después de nuestro propio éxito inicial, queríamos aplicar más el algoritmo, por lo que contactamos con algunos usuarios y propusimos probar nuestro nuevo algoritmo en sus problemas científicos", dijo Yager. "Dijeron que sí, y desde entonces hemoshan medido varias muestras. Una de las más interesantes fue el estudio de una muestra que fue fabricada para contener un espectro de diferentes tipos de materiales. Entonces, en lugar de hacer y medir una enorme cantidad de muestras y quizás perder una combinación interesante, el usuario hizouna muestra única que incluía todas las combinaciones posibles. Nuestro algoritmo pudo explorar esta enorme diversidad de combinaciones de manera eficiente ", dijo.
¿Qué sigue?
Después de los primeros experimentos exitosos, los científicos planean mejorar aún más el algoritmo y, por lo tanto, su valor para la comunidad científica. Una de sus ideas es hacer que el algoritmo sea "consciente de la física", aprovechando todo lo que ya se sabe sobre el material bajoestudio - para que el método sea aún más efectivo. Otro desarrollo en progreso es usar el algoritmo durante la síntesis y el procesamiento de nuevos materiales, por ejemplo para comprender y optimizar procesos relevantes para la fabricación avanzada a medida que estos materiales se incorporan a dispositivos del mundo realEl equipo también está pensando en una imagen más amplia y quiere transferir el método autónomo a otras configuraciones experimentales.
"Creo que los usuarios ven las líneas de luz de NSLS-II o los microscopios de CFN como herramientas poderosas de caracterización. Estamos tratando de cambiar estas capacidades en una poderosa instalación de descubrimiento de materiales", dijo Fukuto.
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional Brookhaven . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :