Justo antes de las 8:00 am hora local del 26 de diciembre de 2004, las personas en el sudeste asiático estaban comenzando sus días cuando el tercer terremoto más fuerte registrado en la historia arrancó una lágrima de 1.500 kilómetros en el fondo del océano frente a la costa de la isla indonesia deSumatra.
El terremoto duró entre 8 y 10 minutos uno de los más largos jamás registrados, y levantó el fondo del océano varios metros, creando un tsunami con olas de 30 metros que devastó comunidades enteras. El evento causó casi 200,000 muertes en 15 países,y liberó tanta energía por encima y por debajo del suelo como varios siglos de uso de energía en los EE. UU.
El terremoto de Sumatra-Andaman, como se le llama, fue tan sorprendente como violento. A pesar de los grandes avances en los sistemas de monitoreo y alerta de terremotos en los últimos 50 años, los científicos de la Tierra no pudieron predecirlo porque existen relativamente pocos datos sobre taleseventos sismológicos a gran escala. Los investigadores tienen una gran cantidad de información relacionada con terremotos semi-regulares, de baja a mediana intensidad, pero los desastres como el Sumatra-Andaman - eventos que solo ocurren cada doscientos años - son demasiado rarospara crear conjuntos de datos confiables
Para comprender mejor estos eventos y, con suerte, proporcionar mejores métodos de predicción y mitigación, un equipo de investigadores de la Ludwig-Maximilians-Universität Munich LMU y la Universidad Técnica de Munich TUM está utilizando recursos de supercomputación en LeibnizSupercomputing Center LRZ para comprender mejor estos fenómenos sísmicos raros y extremadamente peligrosos.
"Nuestra motivación general es comprender mejor todo el proceso de por qué algunos terremotos y tsunamis resultantes son mucho más grandes que otros", dijo el profesor de TUM, Dr. Michael Bader. "A veces vemos tsunamis relativamente pequeños cuando los terremotos son grandes, o sorprendentementegrandes tsunamis conectados con terremotos relativamente pequeños. La simulación es una de las herramientas para obtener información sobre estos eventos ".
El equipo se esfuerza por simulaciones "acopladas" de terremotos y tsunamis posteriores. Recientemente completó su simulación de terremoto más grande hasta ahora. Utilizando la supercomputadora SuperMUC en LRZ, el equipo pudo simular 1.500 kilómetros de mecánica de fractura no lineal - lafuente del terremoto: junto con las ondas sísmicas que viajan a India y Tailandia durante poco más de 8 minutos del terremoto de Sumatra-Andaman. Mediante varias innovaciones informáticas internas, el equipo logró una mejora de 13 veces en el tiempo de solución.Como reconocimiento a este logro, el proyecto fue nominado para el premio al mejor papel en SC17, una de las principales conferencias de supercomputación del mundo, celebrada este año del 12 al 17 de noviembre en Denver, Colorado.
terremotos de Megathrust, simulaciones de escala masiva
Los terremotos ocurren cuando la roca debajo de la superficie de la Tierra se rompe repentinamente, a menudo como resultado del lento movimiento de las placas tectónicas.
Un indicador aproximado de la capacidad de un terremoto en el océano para desencadenar un gran tsunami es si las placas se muelen unas contra otras o chocan de frente. Si dos o más placas chocan, una placa a menudo forzará a la otra debajo de ella. Regiones dondeEste proceso se llama zonas de subducción y puede albergar fallas muy grandes y de poca profundidad, llamadas "megathrusts". La liberación de energía a través de esas enormes zonas de debilidad tiende a crear tsunamis violentos, ya que el fondo del océano se eleva en una cantidad significativa, desplazando temporalmente grandescantidades de agua
Sin embargo, hasta hace poco, los investigadores que realizaban geofísica computacional tenían grandes dificultades para simular terremotos de subducción con el nivel de detalle y precisión necesarios. Las simulaciones de terremotos a gran escala son difíciles en general, pero los eventos de subducción son aún más complejos.
"Modelar terremotos es un problema multiescala tanto en el espacio como en el tiempo", dijo la Dra. Alice Gabriel, la investigadora principal del lado de la UGL del equipo. "La realidad es compleja, lo que significa que incorporar la complejidad observada de las fuentes de terremotos implica invariablementeuso de métodos numéricos, software de simulación altamente eficiente y, por supuesto, computación de alto rendimiento HPC. Solo mediante la explotación de HPC podemos crear modelos que puedan resolver la liberación de tensión dinámica y las rupturas que ocurren con un terremoto al tiempo que simulan el desplazamiento del fondo marino.más de miles de kilómetros ".
Cuando los investigadores simulan un terremoto, usan una cuadrícula computacional para dividir la simulación en muchas piezas pequeñas. Luego calculan ecuaciones específicas para varios aspectos de la simulación, como el movimiento sísmico generado o el desplazamiento del fondo del océano, entre otros, a lo largo del "tiempo"pasos "o instantáneas de simulación a lo largo del tiempo que ayudan a ponerlo en movimiento, como un libro animado"
Cuanto más fina es la cuadrícula, más precisa es la simulación, pero cuanto más exigente es computacionalmente. Además, cuanto más compleja es la geometría del terremoto, más compleja se vuelve la cuadrícula, lo que complica aún más el cálculo. Para simular terremotos de subducción,Los científicos computacionales tienen que crear una cuadrícula grande que también pueda representar con precisión los ángulos muy poco profundos en los que se encuentran las dos placas continentales. Esto requiere que las celdas de la cuadrícula alrededor del área de subducción sean muy pequeñas y, a menudo, de forma delgada.
A diferencia de los terremotos continentales, que se han documentado mejor a través del cómputo y la observación, los eventos de subducción a menudo ocurren en las profundidades del océano, lo que significa que es mucho más difícil restringir una simulación mediante observaciones que sacuden el suelo y datos detallados y confiables de observación directa y laboratorioexperimentos.
Además, calcular una simulación de terremoto-tsunami a gran escala acoplada requiere el uso de datos de una amplia variedad de fuentes. Los investigadores deben tener en cuenta la forma del fondo marino, la forma y la resistencia del límite de la placa roto por el terremoto y el comportamiento del materialde la corteza terrestre en cada nivel, entre otros aspectos. El equipo ha pasado los últimos años desarrollando métodos para integrar de manera más eficiente estas fuentes de datos dispares en un modelo consistente.
Para reducir el enorme tiempo de cómputo, el equipo explotó un método llamado "paso de tiempo local". En áreas donde las simulaciones requieren mucho más detalles espaciales, los investigadores también deben "ralentizar" la simulación realizando más pasos de tiempo en estas áreas.Otras secciones que requieren menos detalles pueden ejecutarse mucho más grandes, y por lo tanto, mucho menos pasos de tiempo.
Si el equipo tuviera que ejecutar toda su simulación en un pequeño paso de tiempo uniforme, habría requerido aproximadamente 3 millones de iteraciones individuales. Sin embargo, solo unas pocas celdas de la cuadrícula computacional requirieron este tamaño de paso de tiempo. Las partes principales podrían calcularse con muchopasos de tiempo más largos, algunos que requieren solo 3000 pasos de tiempo. Esto redujo significativamente la demanda computacional y condujo a gran parte de la aceleración de 13 veces del equipo. Este avance también llevó a que la simulación del equipo sea la simulación más grande y larga de primeros principios de un terremoto deeste tipo.
movimiento hacia adelante
Debido a su estrecha colaboración con el personal de LRZ, el equipo tuvo la oportunidad de utilizar toda la máquina SuperMUC para sus simulaciones. Bader indicó que estas corridas a gran escala son invaluables para que el equipo obtenga información más profunda en su investigación ".una gran diferencia si se ejecuta en una cuarta parte de una máquina o en una máquina llena, ya que ese último factor de 4 a menudo revela los cuellos de botella críticos ", dijo.
La capacidad del equipo para aprovechar al máximo los recursos de supercomputación de la generación actual lo entusiasma con el futuro. No es necesariamente importante que las máquinas de la próxima generación ofrezcan la oportunidad para que los investigadores de LMU-TUM realicen simulaciones "más grandes" - simulaciones actualespuede simular efectivamente un área geográfica lo suficientemente grande. Por el contrario, el equipo está entusiasmado con la oportunidad de modificar los datos de entrada y ejecutar muchas más iteraciones durante una cantidad determinada de tiempo de computación.
"Hemos estado haciendo una simulación individual, tratando de adivinar con precisión la configuración inicial, como las tensiones y fuerzas iniciales, pero todo esto aún es incierto", dijo Bader. "Así que nos gustaría ejecutar nuestra simulación con muchasdiferentes configuraciones para ver cómo los pequeños cambios en el sistema de fallas u otros factores afectarían el estudio. Estos serían estudios de parámetros más grandes, que es otra capa de rendimiento que una computadora necesitaría proporcionar ".
Gabriel también mencionó que, con suerte, las máquinas de la próxima generación podrán simular escenarios urgentes en tiempo real que pueden ayudar a predecir los riesgos en relación con las posibles regiones de réplica. El equipo está emocionado de ver las arquitecturas de la próxima generación en LRZ y elotros centros Gauss para centros de supercomputación, el centro de computación de alto rendimiento de Stuttgart y el centro de supercomputación de Jülich.
En opinión de Bader, el trabajo reciente del equipo no solo representa su simulación a mayor escala hasta la fecha, sino también la colaboración cada vez más fuerte entre los científicos del dominio y los científicos computacionales en el grupo ". Este documento tiene un fuerte componente de sismología y un fuerte HPCcomponente ", dijo." Este es realmente un documento de 50-50 para nosotros. Nuestra colaboración ha ido muy bien, y es porque no se trata de obtener la nuestra o la de ellos. Ambos grupos se benefician, y esto es realmente un buen trabajo conjunto"
Este trabajo se llevó a cabo utilizando el Centro Gauss para recursos de Supercomputación basado en el Centro de Supercomputación de Leibniz.
Fuente de la historia :
Materiales proporcionado por Centro Gauss para Supercomputación . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :