Los investigadores están analizando una avalancha de datos producidos por una de las simulaciones cosmológicas más grandes jamás realizadas, dirigida por científicos del Laboratorio Nacional de Argonne del Departamento de Energía de EE. UU. DOE.
La simulación, ejecutada en la supercomputadora Titan en el Laboratorio Nacional Oak Ridge del DOE, modeló la evolución del universo desde solo 50 millones de años después del Big Bang hasta la actualidad, desde su primera infancia hasta su edad adulta actual.de 13.8 mil millones de años, la materia en el universo se agrupó para formar galaxias, estrellas y planetas; pero no estamos seguros de cómo.
Este tipo de simulaciones ayudan a los científicos a comprender la energía oscura, una forma de energía que afecta la tasa de expansión del universo, incluida la distribución de galaxias, compuestas de materia ordinaria, así como de materia oscura, un tipo misterioso de materia que no requiere ningún instrumentoha medido directamente hasta ahora.
Los estudios intensivos del cielo con telescopios potentes, como el Sloan Digital Sky Survey y el nuevo y más detallado Dark Energy Survey, muestran a los científicos dónde estaban las galaxias y las estrellas cuando se emitió su luz por primera vez. Y los estudios del fondo cósmico de microondas, la luz restante decuando el universo tenía solo 300,000 años, muéstranos cómo comenzó el universo: "muy uniforme, con la materia aglomerada con el tiempo", dijo Katrin Heitmann, un físico de Argonne que dirigió la simulación.
La simulación llena el espacio temporal para mostrar cómo el universo podría haber evolucionado entre: "La gravedad actúa sobre la materia oscura, que comienza a agruparse cada vez más, y en los grupos, se forman galaxias", dijo Heitmann.
Llamada Q Continuum, la simulación involucró medio billón de partículas, dividiendo el universo en cubos con lados de 100,000 kilómetros de largo. Esto lo convierte en una de las simulaciones cosmológicas más grandes con una resolución tan alta. Se ejecutó utilizando más del 90 por ciento dePara la perspectiva, por lo general, menos del uno por ciento de los trabajos utilizan el 90 por ciento de la supercomputadora Mira en Argonne, dijeron los funcionarios de Argonne Leadership Computing Facility, una instalación de usuarios de la Oficina de Ciencia del DOE. El personal de las instalaciones de cómputo de Argonne y Oak Ridgeayudó a adaptar el código para su ejecución en Titán.
"Esta es una simulación muy rica", dijo Heitmann. "Podemos usar estos datos para ver por qué las galaxias se agrupan de esta manera, así como la física fundamental de la formación de la estructura misma".
El análisis ya ha comenzado en los dos petabytes y medio de datos que se generaron, y continuará durante varios años, dijo. Los científicos pueden obtener información sobre fenómenos astrofísicos como lentes fuertes, cizallamiento de lentes débiles, lentes de racimo y galaxias.lentes de galaxia.
El código para ejecutar la simulación se llama Hardware / Hybrid Accelerated Cosmology Code HACC, que se escribió por primera vez en 2008, cuando las supercomputadoras científicas rompieron la barrera del petaflop un billón de operaciones por segundo. HACC está diseñado con un sistema inherenteflexibilidad que le permite funcionar en supercomputadoras con diferentes arquitecturas.
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional de Argonne . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :