El sistema de fallas de San Andreas, que abarca casi toda la longitud de California, es propenso a temblar, causando alrededor de 10,000 terremotos menores cada año solo en el área del sur de California.
Sin embargo, las ciudades que bordean la falla, como Los Ángeles y San Francisco, no han experimentado un gran terremoto destructivo, de magnitud 7.5 o más, desde sus intensas urbanizaciones a principios del siglo XX. Con el conocimiento de que ocurren grandes terremotos enA intervalos de 150 años en San Andreas, los sismólogos están seguros de que el próximo "gran" está cerca.
El último terremoto masivo que sacudió San Francisco, que tuvo una magnitud de 7.8, ocurrió en 1906, cobró 700 vidas y causó daños por un valor de $ 400 millones. Desde entonces, los investigadores han recopilado datos de terremotos más pequeños en California, pero esos datos nobrinde a los funcionarios de emergencias e ingenieros estructurales la información que necesitan para prepararse para un terremoto de magnitud 7.5 o mayor.
Con esto en mente, un equipo liderado por Thomas Jordan del Centro de Terremotos del Sur de California SCEC, con sede en la Universidad del Sur de California USC en Los Ángeles, está utilizando la supercomputadora Titan en el Departamento de Energía de los EE. UU. DOE'sOak Ridge National Laboratory ORNL para desarrollar simulaciones de terremotos basadas en la física para comprender mejor los sistemas de terremotos, incluidos los riesgos sísmicos potenciales de fallas conocidas y el impacto de fuertes movimientos de tierra en áreas urbanas.
"Estamos tratando de resolver un problema, y el problema es predecir la sacudida del suelo en grandes terremotos en sitios específicos durante un período de tiempo particular", dijo Jordan.
La sacudida del suelo depende del tipo de terremoto, la forma en que se rompe una falla y cómo las ondas se propagan o se propagan a través de todas las estructuras tridimensionales de la Tierra.
Claramente, comprender lo que podría suceder en un área en particular no es una tarea simple. De hecho, la predicción involucra una lista exhaustiva de entradas complejas que no podrían calcularse sin la ayuda de Titan, una máquina Cray XK7 de 27 petaflop conuna arquitectura híbrida de CPU-GPU. Titan es administrado por Oak Ridge Leadership Computing Facility OLCF, una instalación de usuarios de la Oficina de Ciencia de DOE ubicada en ORNL.
Running on Titan, el equipo usa CyberShake de SCEC, un enfoque computacional basado en la física que integra muchas características de un evento de terremoto, para calcular un mapa probabilístico de peligro sísmico para California. En mayo, el equipo de Jordan completó su mapa CyberShake de mayor resoluciónpara el sur de California usando el Titán de OLCF.
sacudiéndolo
Una de las variables más importantes que afecta el daño sísmico a los edificios es la frecuencia de las ondas sísmicas, o la velocidad a la que una onda sísmica se repite cada segundo. Con mayor detalle y aumenta la frecuencia simulada - de 0.5 hertz a 1 hertz -El último mapa de CyberShake es el más útil hasta la fecha y sirve como una herramienta importante para los ingenieros que utilizan sus resultados para diseñar y construir infraestructura y edificios críticos.
Las estructuras de los edificios responden de manera diferente a ciertas frecuencias. Las estructuras grandes como rascacielos, puentes y pasos elevados de carreteras son sensibles a las sacudidas de baja frecuencia, mientras que las estructuras más pequeñas como las casas tienen más probabilidades de sufrir daños por sacudidas de alta frecuencia, que van de 2 a10 hercios y más.
Las simulaciones de alta frecuencia son computacionalmente más complejas, sin embargo, limitan la información que los ingenieros tienen para construir estructuras más seguras que son sensibles a estas ondas. El equipo de Jordan está tratando de cerrar esta brecha.
"Estamos en el proceso de tratar de iniciar nuestro camino hacia frecuencias más altas", dijo Jordan.
pongámonos físicos
El proceso que sigue el equipo de Jordan comienza con terremotos históricos.
"La sismología tiene esta ventaja significativa de tener eventos sísmicos bien registrados con los que podemos comparar nuestras simulaciones", dijo Philip Maechling, miembro del equipo y científico informático de la USC. "Desarrollamos los códigos de física y los modelos 3-D, luegolos probamos ejecutando una simulación de un terremoto histórico bien observado. Comparamos los movimientos de tierra simulados que calculamos con lo que realmente se registró. Si coinciden, podemos concluir que las simulaciones se están comportando correctamente ".
El equipo luego simula terremotos de escenarios, terremotos individuales que no han ocurrido pero que son motivo de preocupación. Debido a que los sismólogos no pueden obtener suficiente información de los terremotos de escenarios para declaraciones a largo plazo, simulan todos los terremotos posibles ejecutando conjuntos, un conjunto desimulaciones que difieren ligeramente entre sí.
"Son el mismo terremoto con la misma magnitud, pero las características de ruptura, donde comenzó y cómo se propagó, por ejemplo, cambiarán las áreas de la superficie de la Tierra que se ven afectadas por este fuerte movimiento del suelo", Maechlingdijo.
Sin embargo, a medida que el equipo aumentó la frecuencia máxima en simulaciones históricas de terremotos, identificaron un umbral de alrededor de 1 hertz, en el cual sus simulaciones divergían de las observaciones. El equipo determinó que necesitaba integrar física más avanzada en su código para obtener resultados más realistas.
"Una de las simplificaciones que usamos en las simulaciones de baja frecuencia es una región de simulación plana", dijo Maechling. "Suponemos que la Tierra es como una caja rectangular. No sé si has estado en California, pero esno plano. Hay muchas colinas. Este tipo de suposición simplificadora funcionó bien a bajas frecuencias, pero para mejorar estas simulaciones y sus resultados, tuvimos que agregar nuevas complejidades, como la topografía. Tuvimos que agregar montañas a nuestra simulación ".
Incluyendo topografía - la rugosidad de la superficie de la Tierra - las simulaciones del equipo ahora incluyen efectos geométricos y de atenuación adicionales amortiguación gradual de la sacudida debido a la pérdida de energía - plasticidad cercana a la falla, atenuación dependiente de la frecuencia, pequeña escalaheterogeneidades cercanas a la superficie, no linealidad cercana a la superficie y rugosidad de falla.
En Titán, el equipo introdujo y probó los nuevos cálculos de física individualmente para aislar sus efectos. A finales de 2014, el equipo actualizó la física en su código para obtener una capacidad de simulación completa y realista que ahora puede realizar simulaciones usandoModelos de tierra cerca de 4 hertz.
"El tipo de análisis que estamos haciendo se ha hecho en el pasado, pero estaba usando técnicas completamente empíricas: mirar datos e intentar mapear observaciones en nuevas situaciones", dijo Jordan. "Lo que estamos haciendo esdesarrollando un análisis de riesgo sísmico basado en la física, donde obtenemos enormes ganancias al incorporar las leyes de la física, para predecir lo que será en el futuro. Esto era imposible sin la computación de alto rendimiento. Estamos en un punto donde las computadoras pueden hacer estocálculos usando la física y mejorar nuestra capacidad de hacer el tipo de análisis necesario para crear un ambiente seguro para la sociedad ".
Mudanzas y agitadores
Con la nueva física incluida en el código de terremoto de SCEC, la Propagación de Onda Anelástica de Olsen, Day y Cui AWP-ODC, el equipo de Jordan pudo ejecutar su primera curva de peligro CyberShake en Titán para un sitio a 1 hertz, estableciendo la técnica computacional en preparación para un mapa completo de CyberShake.
Una curva de riesgo sísmico proporciona todas las probabilidades de que ocurra un terremoto en un sitio específico, dentro de un marco de tiempo dado y con sacudidas del suelo que excedan un umbral dado.
El equipo utilizó el Pronóstico Uniforme de Terremotos de California del Servicio Geológico de EE. UU. USGS, que identifica todas las posibles rupturas de terremotos para un sitio en particular, para generar curvas de peligro de CyberShake para 336 sitios en el sur de California.
En mayo, el equipo calculó las curvas de peligro para los 336 sitios necesarios para completar el primer mapa de riesgo sísmico urbano de 1 hertzio para Los Ángeles. Con el doble de la frecuencia simulada máxima del mapa de 0,5 hertz del año pasado, este mapa demuestra ser el doble de preciso.
El mapa se registrará en el proyecto del Mapa de Peligros Sísmicos Urbanos del USGS, y cuando pase la revisión científica y técnica adecuada, sus resultados se enviarán para su uso en la actualización 2020 de las Disposiciones Sísmicas Recomendadas del Programa Nacional de Reducción de Riesgos de Terremotos.
Este hito importante en el análisis de riesgos sísmicos solo fue posible con la ayuda de Titán y sus GPU.
"Titan nos da la capacidad de enviar trabajos a muchos nodos acelerados por GPU a la vez", dijo Jordan. "No hay nada comparable. Incluso con otros sistemas de GPU, no podemos obtener nuestros trabajos a través de la cola de GPU lo suficientemente rápido como para mantenernuestro grupo de investigación está ocupado. Titan es absolutamente la mejor opción para ejecutar nuestros trabajos de GPU ".
Yifeng Cui, miembro del equipo y científico computacional en el Centro de Supercomputadoras de San Diego, modificó AWP-ODC para aprovechar la arquitectura híbrida de Titan, mejorando así el rendimiento y la velocidad. Fue galardonado con el Premio Global Impact 2015 de NVIDIA por su trabajo.
"Es una ciencia informática fantástica", dijo Jordan. "Lo que Yifeng ha hecho es entrar y realmente usar la estructura de Titán de una manera apropiada para acelerar lo que son códigos muy complicados. Tenemos que manipular muchas variables en cadaapunta dentro de estas cuadrículas muy grandes y se requiere mucha comunicación interna para hacer los cálculos "
Utilizando el código acelerado por GPU de Cui en Titán, el equipo ejecutó simulaciones 6.3 veces más eficientemente que la implementación solo de CPU, ahorrándoles 2 millones de horas centrales para el proyecto. La finalización del proyecto requirió aproximadamente 9.6 millones de horas centrales en Titán.
"El tiempo computacional requerido para hacer simulaciones de alta frecuencia toma muchas horas de nodo", dijo Maechling. "Podría tomar fácilmente cientos de miles de horas de nodo. Esa es una cantidad computacional enorme que supera con creces lo que SCEC tiene disponible en nuestra universidad".Estas simulaciones de terremotos de alta frecuencia requieren computadoras muy grandes porque las simulaciones son computacionalmente costosas. Realmente no podríamos hacer estas simulaciones de alta frecuencia sin una computadora como Titan ".
Con Titán, el equipo de Jordan planea impulsar la frecuencia simulada máxima por encima de 10 hertzios para informar mejor a los ingenieros y funcionarios de emergencias sobre posibles eventos sísmicos, incluido el inevitable "gran".
"Tenemos el potencial de tener un impacto positivo y ayudar a reducir los riesgos de los terremotos", dijo Maechling. "Podemos ayudar a la sociedad a comprender mejor los terremotos y los peligros que presentan. Tenemos el potencial de tener un amplio impacto social a través deentorno más seguro "
Fuente de la historia :
Materiales proporcionado por Instalación de informática de liderazgo de Oak Ridge . Nota: El contenido puede ser editado por estilo y longitud.
Cite esta página :