Usando los microscopios avanzados de hoy en día, los científicos pueden capturar exponencialmente más información sobre los materiales que estudian en comparación con hace una década, con mayor detalle y en menos tiempo. Si bien estas nuevas capacidades son una bendición para los investigadores, ayudando a responder preguntas claveque podrían conducir a tecnologías de próxima generación, también presentan un nuevo problema: ¿Cómo hacer un uso efectivo de todos estos datos?
En el Laboratorio Nacional Oak Ridge del Departamento de Energía, los investigadores están diseñando una solución al crear una infraestructura novedosa que une las tecnologías de imagen de vanguardia del laboratorio con análisis de datos avanzados y computación de alto rendimiento HPC.El poder computacional promete acelerar la investigación y permitir nuevas oportunidades para el descubrimiento y diseño de materiales avanzados, conocimiento que podría conducir a mejores baterías, semiconductores a escala atómica y energía fotovoltaica eficiente, por nombrar algunas aplicaciones. Desarrollo de un sistema de software distribuido que ofreceSin embargo, estas capacidades avanzadas de manera fluida requieren una capa adicional de sofisticación.
Ingrese al entorno Bellerophon para el análisis de materiales BEAM, una plataforma ORNL que combina instrumentos científicos con servicios web y de datos y recursos HPC a través de una interfaz fácil de usar. Diseñado para agilizar el análisis de datos y los procesos de flujo de trabajo de los experimentos que se originan en DOE OfficeBEAM ofrece a los científicos de materiales una canalización directa a computación escalable, soporte de software y servicios de almacenamiento en la nube de alto rendimiento proporcionados por ORNL, de las Instalaciones de usuarios de ciencias de ORNL, como el Centro de ciencias de materiales nanofásicos CNMS y Fuente de neutrones de espalación SNSCompute and Data Environment for Science CADES. Además, BEAM ofrece a los usuarios una puerta de entrada a recursos de supercomputación de clase mundial en el Oak Ridge Leadership Computing Facility OLCF, otra instalación de usuarios de la Oficina de Ciencia del DOE.
El resultado final para los científicos es el procesamiento, análisis y visualización casi en tiempo real de grandes conjuntos de datos experimentales desde la comodidad de una estación de trabajo local, una mejora drástica sobre las prácticas tradicionales de análisis de datos que consumen mucho tiempo.
"Los procesos que una vez tomaron días ahora toman unos minutos", dijo el ingeniero de software de ORNL Eric Lingerfelt, desarrollador principal de BEAM. "Una vez que los investigadores cargan sus datos en el sistema de administración de datos en línea de BEAM, pueden ejecutar de manera fácil e intuitiva algoritmos de análisis avanzados enRecursos de HPC como los clústeres de cómputo de CADES o la supercomputadora Titan de OLCF y visualizan rápidamente los resultados. La aceleración es increíble, pero lo más importante es que el trabajo se puede hacer de forma remota desde cualquier lugar y en cualquier momento ".
Haz de construcción
Un equipo dirigido por Lingerfelt y Stephen Jesse de CNMS comenzó a desarrollar BEAM en 2015 como parte del Instituto ORNL para Materiales de Imágenes Funcionales, una iniciativa de laboratorio dedicada a fortalecer los lazos entre la tecnología de imágenes, HPC y análisis de datos.
Muchos de los conceptos centrales de BEAM, como su infraestructura en capas, gestión de datos en la nube y capacidades de análisis en tiempo real, surgieron de un proyecto anterior del DOE llamado Bellerophon, un entorno de flujo de trabajo computacional para simulaciones de supernovas de colapso de núcleo de HPC, liderado porBronson Messer de OLCF y desarrollado por Lingerfelt. Inicialmente lanzado en 2010, la base de datos de Bellerophon ha crecido para incluir más de 100,000 archivos de datos y 1,5 millones de imágenes renderizadas en tiempo real de más de 40 modelos diferentes de supernovas de colapso de núcleo.
Sin embargo, la aplicación y expansión de las estrategias de cómputo y datos de Bellerophon al ámbito de los materiales presentó múltiples obstáculos técnicos nuevos. "Pasamos un año entero creando e integrando la infraestructura BEAM con instrumentos en el CNMS", dijo Lingerfelt. "Ahora los científicos apenas están comenzandopara usarlo "
A través de BEAM, los investigadores obtienen acceso a algoritmos escalables: código desarrollado por matemáticos y científicos computacionales de ORNL para acortar el tiempo de descubrimiento. Además, BEAM ofrece a los usuarios capacidades mejoradas de gestión de datos y formatos de datos comunes que hacen que etiquetar, buscar y compartirmás fácil. Reducir estas barreras para la comunidad científica de materiales no solo ayuda con la verificación y validación de los hallazgos actuales, sino que también crea oportunidades futuras para el descubrimiento científico ". A medida que agreguemos nuevas funciones y herramientas de análisis de datos a BEAM, los usuarios podrán regresary ejecutar esos en sus datos ", dijo Lingerfelt.
de un año a horas
Uno de los primeros flujos de trabajo de procesamiento de datos desarrollado para BEAM demuestra su potencial de gran alcance para acelerar la ciencia de los materiales.
En CNMS, los usuarios de todo el mundo utilizan los poderosos instrumentos de imágenes del centro para estudiar materiales en detalle atómico. Sin embargo, realizar análisis de los datos de los usuarios a menudo ralentiza el progreso científico. Un proceso de análisis común requería que los usuarios formatearan los datos derivados deuna técnica de imagen llamada microscopía de fuerza atómica de excitación de banda. Realizada en una sola estación de trabajo, el análisis a menudo tomaba días. "A veces las personas tomaban su medida y no podían analizarla incluso en las semanas que estaban aquí", dijo Jesse.
Al transferir los datos de la microscopía a la informática CADES a través de la interfaz BEAM, los usuarios de CNMS obtuvieron una aceleración de 1,000 veces en su análisis, reduciendo el trabajo en cuestión de minutos. Un algoritmo de ajuste especializado, que se volvió a implementar para su uso en HPClos recursos del matemático de ORNL Eirik Endeve, jugaron un papel clave en el ajuste del ciclo de retroalimentación en el que los usuarios confiaban para juzgar si debían hacerse ajustes a su experimento. "Literalmente redujimos un año de análisis de datos a 10 horas", dijo Lingerfelt.
BEAM también está demostrando su valía en SNS, el sistema de haz de neutrones pulsado más intenso del mundo, al estrechar la interacción entre la teoría y el experimento. Trabajando con Jose Borreguero del Centro de Aceleración y Modelado de Materiales en SNS, el BEAMEl equipo creó un flujo de trabajo que permite la comparación casi en tiempo real de la simulación y los datos de dispersión de neutrones aprovechando la informática CADES. La retroalimentación ayuda a los científicos de neutrones a ajustar sus simulaciones y guía los experimentos posteriores. En el futuro, los algoritmos de aprendizaje automático podrían automatizar completamente el proceso, liberando a los científicos para que se concentren en otras partes de su trabajo. "Sin embargo, los humanos seguirán siendo el centro del proceso científico", dijo Lingerfelt.
"No estamos aquí para reemplazar cada paso en el flujo de trabajo de un experimento científico, pero queremos desarrollar herramientas que complementen las cosas que los científicos ya están haciendo", dijo.
Agregando a la caja de herramientas
Ahora que la infraestructura de BEAM está en su lugar, el equipo de Lingerfelt está colaborando con expertos avanzados en matemáticas, datos y visualización en ORNL para aumentar regularmente la caja de herramientas del software.
"Una vez que hayamos creado una suite completamente funcional, queremos abrir BEAM a otros científicos de materiales que pueden tener sus propios códigos de análisis pero que no tienen la experiencia para ejecutarlos en HPC", dijo Lingerfelt.línea nos gustaría tener una biblioteca de análisis de materiales de ciencia abierta donde las personas puedan validar los resultados del análisis públicamente ".
Actualmente, el equipo de Lingerfelt está desarrollando un conjunto de algoritmos para llevar a cabo análisis multivariados, un proceso analítico altamente complejo y multidimensional que analiza grandes cantidades de información tomada de múltiples instrumentos en la misma muestra de material.
"Necesita HPC para que este tipo de análisis sea incluso posible", dijo Jesse. "Estamos obteniendo la capacidad de analizar conjuntos de datos de alta dimensión que antes no eran analizables, y esperamos ver propiedades en materiales que no eranno visible antes "
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional de Oak Ridge . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :