Hay cientos de miles de millones de estrellas en nuestra propia galaxia, la Vía Láctea. Las estimaciones indican un número similar de galaxias en el universo observable, cada una con su propio gran conjunto de estrellas, muchas con sus propios sistemas planetarios. Más allá y entre estas estrellas yLas galaxias son todo tipo de materia en diversas fases, como el gas y el polvo. Otra forma de materia, la materia oscura, existe en una forma muy diferente y misteriosa, que anuncia su presencia indirectamente solo a través de sus efectos gravitacionales.
Este es el universo que Salman Habib está tratando de reconstruir, estructura por estructura, utilizando observaciones precisas de levantamientos telescópicos combinados con técnicas de análisis y simulación de datos de próxima generación que se están preparando actualmente para la computación de exascala.
"Estamos simulando todos los procesos en la estructura y formación del universo. Es como resolver un rompecabezas de física muy grande", dijo Habib, un físico sénior y científico computacional con las divisiones de Física y Matemáticas e Informática de Alta Energía deel Laboratorio Nacional de Argonne del Departamento de Energía de EE. UU. DOE.
Habib lidera el proyecto "Computing the Sky at Extreme Scales" o "ExaSky", uno de los primeros proyectos financiados por el recientemente establecido Exascale Computing Project ECP, un esfuerzo de colaboración entre la Oficina de Ciencia del DOE y su Administración Nacional de Seguridad Nuclear.
Desde la determinación de la causa inicial de las fluctuaciones primordiales hasta la medición de la suma de todas las masas de neutrinos, los objetivos científicos de este proyecto representan una larga lista de las preguntas, misterios y desafíos más importantes que actualmente confunden a los cosmólogos.
Existe la cuestión de la energía oscura, la causa potencial de la expansión acelerada del universo, llamada inflación. Otra pregunta es la naturaleza y distribución de la materia oscura en el universo.
Estas son preguntas inmensas que exigen un poder computacional igualmente expansivo para responder. El ECP está preparando códigos científicos para sistemas exascale, los nuevos caballos de batalla de la ciencia computacional y de grandes datos.
Iniciado para impulsar el desarrollo de un "ecosistema exascale" de arquitecturas, códigos y marcos de vanguardia y alto rendimiento, el ECP permitirá a los investigadores abordar los datos y los desafíos computacionalmente intensivos, como las simulaciones ExaSky del universo conocido.
Además de la magnitud de sus demandas computacionales, los proyectos de ECP se seleccionan en función de si cumplen con áreas estratégicas específicas, que van desde la seguridad energética y económica hasta el descubrimiento científico y la atención médica.
"La investigación de Salman ciertamente analiza preguntas científicas importantes y fundamentales, pero también tiene beneficios sociales", dijo Paul Messina, miembro distinguido de Argonne. "Los seres humanos tienden a preguntarse de dónde vienen, y esa curiosidad es muy profunda".
HACC'ing el cielo nocturno
Para Habib, el ECP presenta un doble desafío: ¿cómo se lleva a cabo la ciencia de vanguardia en máquinas de última generación?
El equipo entre divisiones de Argonne ha estado trabajando en la ciencia a través de un esfuerzo de varios años en Argonne Leadership Computing Facility ALCF, una instalación de usuarios de la Oficina de Ciencia del DOE. El equipo está ejecutando simulaciones cosmológicas para estudios de cielo a gran escalaen la computadora de alto rendimiento de 10 petaflops de la instalación, Mira. Las simulaciones están diseñadas para trabajar con datos de observación recolectados de telescopios especializados, como el próximo Instrumento espectroscópico de energía oscura DESI y el Telescopio de levantamiento sinóptico grande LSST.
Los telescopios de estudio miran áreas mucho más grandes del cielo, hasta la mitad del cielo, en cualquier punto, que el telescopio espacial Hubble, por ejemplo, que se enfoca más en objetos individuales. Una noche concentrándose en un parche, ella noche siguiente, otros instrumentos de inspección examinan sistemáticamente el cielo para desarrollar un registro cartográfico del cosmos, como lo describe Habib.
Trabajando en colaboración con Los Alamos y Lawrence Berkeley National Laboratories, el equipo de Argonne se está preparando para trazar el resto del curso.
Su código principal, que Habib ayudó a desarrollar, ya se encuentra entre los códigos de producción científica más rápidos en uso. Llamado HACC Código de Cosmología Acelerado Híbrido / Hardware, este marco de cosmología basado en partículas admite una variedad de modelos y algoritmos de programación.
Único entre los códigos utilizados en otros proyectos informáticos de exascale, puede ejecutarse en todas las arquitecturas actuales y prototipo, desde el chip X86 básico utilizado en la mayoría de las PC domésticas, hasta las unidades de procesamiento de gráficos, hasta el chip Knights Landing más nuevo encontrado en Theta, el ALCF'súltimo sistema de supercomputación.
Tan robusto como el código ya lo es, el equipo de HACC continúa desarrollándolo aún más, agregando nuevas capacidades significativas, como la hidrodinámica y los modelos de subred asociados.
"Cuando ejecuta simulaciones muy grandes del universo, no puede hacer todo, porque es demasiado detallado", explicó Habib. "Por ejemplo, si estamos ejecutando una simulación donde literalmente tenemos decenas a cientos demiles de millones de galaxias, no podemos seguir cada galaxia con todo detalle. Por lo tanto, se nos ocurren aproximaciones aproximadas, denominadas modelos de subcuadrícula ".
Incluso con estas mejoras y sus éxitos, el código HACC aún necesitará aumentar su rendimiento y memoria para poder trabajar en un marco de escala exascala. Además de HACC, el proyecto ExaSky emplea el código de refinamiento de malla adaptable Nyx, desarrollado enLawrence Berkeley. HACC y Nyx se complementan entre sí con diferentes áreas de especialización. La sinergia entre los dos es un elemento importante del enfoque del equipo ExaSky.
Un enfoque de simulación cosmológica que combina múltiples enfoques permite la verificación de procesos cosmológicos difíciles de resolver que involucran evolución gravitacional, dinámica de gases y efectos astrofísicos en rangos dinámicos muy altos. Nuevos métodos computacionales como el aprendizaje automático ayudarán a los científicos a reconocer de manera rápida y sistemáticacaracterísticas en los datos de observación y simulación que representan eventos únicos.
Un billón de partículas de luz
El trabajo producido bajo el ECP servirá para varios propósitos, beneficiando tanto el futuro del modelado cosmológico como el desarrollo de plataformas exitosas de exascala.
En el extremo del modelado, la computadora puede generar muchos universos con diferentes parámetros, lo que permite a los investigadores comparar sus modelos con observaciones para determinar qué modelos se ajustan a los datos con mayor precisión. Alternativamente, los modelos pueden hacer predicciones para las observaciones aún por hacer.
Los modelos también pueden producir imágenes extremadamente realistas del cielo, lo cual es esencial al planificar grandes campañas de observación, como las de DESI y LSST.
"Antes de gastar el dinero para construir un telescopio, es importante también producir datos simulados extremadamente buenos para que las personas puedan optimizar las campañas de observación para enfrentar sus desafíos de datos", dijo Habib.
Pero el costo del realismo es costoso. Las simulaciones pueden variar en el reino de billones de partículas y producir varios petabytes, miles de millones de bytes, de datos en una sola ejecución. A medida que el exascale se vuelve frecuente, estas simulaciones producirán de 10 a 100 vecestantos datos
El trabajo que está haciendo el equipo de ExaSky, junto con el de los otros equipos de investigación de ECP, ayudará a abordar estos desafíos y los que enfrentan los fabricantes de computadoras y los desarrolladores de software a medida que crean plataformas de escala de escala coherentes y funcionales para satisfacer las necesidades de los grandesciencia de escala. Al trabajar con sus propios códigos en máquinas preexascale, el equipo de investigación de ECP puede ayudar a guiar a los proveedores en el diseño de chips, ancho de banda de E / S y requisitos de memoria y otras características
"Todas estas cosas pueden ayudar a la comunidad ECP a optimizar sus sistemas", señaló Habib. "Esa es la razón fundamental por la que se eligieron los equipos científicos de ECP. Aprenderemos las lecciones que aprendemos al tratar con esta arquitectura al resto dela comunidad científica y dicen: 'Hemos encontrado una solución' "
Fuente de la historia :
Materiales proporcionado por Laboratorio Nacional de Argonne . Original escrito por John Spizzirri. Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :