Con las supercomputadoras emergentes a escala del exascala, los investigadores pronto podrán simular con precisión los movimientos de tierra de los terremotos regionales rápidamente y con detalles sin precedentes, así como predecir cómo estos movimientos afectarán la infraestructura energética, desde la red eléctrica hasta las plantas de energía locales.e instalaciones de investigación científica.
Actualmente, un equipo interdisciplinario de investigadores de los laboratorios nacionales Lawrence Berkeley Berkeley Lab y Lawrence Livermore LLNL del Departamento de Energía DOE, así como de la Universidad de California en Davis, están construyendo el primer-end código de simulación para capturar con precisión la geología y la física de los terremotos regionales, y cómo el temblor impacta los edificios. Este trabajo es parte del Proyecto de Computación Exascale ECP del DOE, que tiene como objetivo maximizar los beneficios de exascale - futuros supercomputadores que lo haránser 50 veces más rápido que el sistema más poderoso de nuestra nación hoy en día: para la competitividad económica de los Estados Unidos, la seguridad nacional y el descubrimiento científico
"Debido a las limitaciones informáticas, las simulaciones geofísicas actuales a nivel regional generalmente resuelven los movimientos del terreno a 1-2 hertzios vibraciones por segundo. En última instancia, nos gustaría tener estimaciones de movimiento del orden de 5-10 hertzios con precisióncaptura la respuesta dinámica para una amplia gama de infraestructura ", dice David McCallen, quien lidera un esfuerzo respaldado por ECP llamado Simulaciones multidisciplinarias de alto rendimiento para evaluaciones de riesgos y riesgos sísmicos a escala regional. También es un científico invitado en Ciencias de la Tierra y del Medio Ambiente de Berkeley Lab.Zona.
Una de las variables más importantes que afectan el daño sísmico a los edificios es la frecuencia de las ondas sísmicas, o la velocidad a la que se repite una onda sísmica cada segundo. Los edificios y las estructuras responden de manera diferente a ciertas frecuencias. Estructuras grandes como rascacielos, puentes y pasos elevados de autopistasson sensibles a las sacudidas de baja frecuencia, mientras que las estructuras más pequeñas como las casas tienen más probabilidades de sufrir daños por sacudidas de alta frecuencia, que van de 2 a 10 hertzios o más. McCallen señala que las simulaciones de terremotos de alta frecuencia son más exigentes desde el punto de vista computacional y requerirán computadoras de gran escala.
En preparación para exascale, McCallen está trabajando con Hans Johansen, un investigador de la División de Investigación Computacional CRD de Berkeley Lab y otros para actualizar el código SW4 existente, que simula la propagación de ondas sísmicas, para aprovechar las últimas supercomputadoras, como el sistema Cori del Centro Nacional de Investigación Científica de Energía Nacional NERSC. Este sistema de muchos núcleos contiene 68 núcleos de procesador por chip, casi 10,000 nodos y nuevos tipos de memoria. NERSC es una instalación nacional de usuarios de la Oficina de Ciencia del DOE operada por Berkeley Lab.El código SW4 fue desarrollado por un equipo de investigadores de LLNL, dirigido por Anders Petersson, quien también está involucrado en el esfuerzo de exascale.
Con actualizaciones recientes de SW4, la colaboración simuló con éxito un terremoto de magnitud 6.5 en la falla Hayward de California a 3 hertzios en la supercomputadora Cori de NERSC en aproximadamente 12 horas con 2,048 nodos de Desembarco de Caballeros. Esta simulación única en su tipo también capturó elimpacto de este movimiento de tierra en edificios dentro de un radio de 100 kilómetros cuadrados km de la ruptura, así como a 30 km bajo tierra.Con futuros sistemas de exascala, los investigadores esperan ejecutar el mismo modelo a una resolución de 5-10 hertz en aproximadamente cinco horaso menos.
"En última instancia, nos gustaría llegar a un dominio mucho más grande, mayor resolución de frecuencia y acelerar nuestro tiempo de simulación", dice McCallen. "Sabemos que la forma en que se rompe una falla es un factor importante para determinar cómo los edificiosreaccionamos al temblor, y debido a que no sabemos cómo se romperá la falla de Hayward o la geología precisa del Área de la Bahía, necesitamos ejecutar muchas simulaciones para explorar diferentes escenarios. Acelerar nuestras simulaciones en sistemas de exascala nos permitirá hacerese."
Este trabajo fue publicado en la edición reciente del Instituto de Ingenieros Eléctricos y Electrónicos IEEE, por sus siglas en inglés Computers in Science and Engineering de Computer Society.
Predicción de terremotos: pasado, presente y futuro
Históricamente, los investigadores han adoptado un enfoque empírico para estimar los movimientos del terreno y cómo el temblor tensiona las estructuras. Por lo tanto, para predecir cómo un terremoto afectaría la infraestructura en la región de San Francisco, los investigadores podrían observar un evento pasado que tenía aproximadamente el mismo tamaño:- incluso podría haber sucedido en otro lugar - y usar esas observaciones para predecir el movimiento del suelo en San Francisco. Luego seleccionarían algunos parámetros de esas simulaciones basados en análisis empíricos y supondrían cómo pueden verse afectados varios edificios.
"No sorprende que haya ciertos casos en los que este método no funciona tan bien", dice McCallen. "Cada sitio es diferente: la composición geológica puede variar, las fallas pueden estar orientadas de manera diferente, etc.nuestro enfoque es aplicar la investigación geofísica a las simulaciones de supercomputadoras y modelar con precisión la física subyacente de estos procesos ".
Para lograr esto, la herramienta que está desarrollando el equipo del proyecto emplea una técnica de discretización que divide la Tierra en miles de millones de zonas. Cada zona se caracteriza por un conjunto de propiedades geológicas. Luego, las simulaciones calculan el movimiento de la superficie para cada zona.Comprensión precisa del movimiento de la superficie en una zona determinada, los investigadores también obtienen estimaciones más precisas de cómo un edificio se verá afectado por las sacudidas.
Las simulaciones más recientes del equipo en NERSC dividieron una región de 100 km x 100 km x 30 km en 60 mil millones de zonas. Al simular 30 km debajo del sitio de ruptura, el equipo puede capturar cómo la geología de la capa superficial afecta los movimientos del suelo y los edificios. Eventualmente, los investigadores podríanles gusta poner a punto sus modelos para realizar evaluaciones de peligros. A medida que Pacific Gas & Electric PG&E comienza a implementar una gama muy densa de acelerómetros en sus SmartMeters, un sistema de sensores que recopila datos de uso de gas eléctrico y natural de hogares y empresaspara ayudar al cliente a comprender y reducir su uso de energía: McCallen está trabajando con la empresa de servicios públicos para utilizar potencialmente esos datos para obtener una comprensión más precisa de cómo se mueve realmente el suelo en diferentes regiones geológicas.
"La Bahía de San Francisco es un área extremadamente peligrosa desde un punto de vista sísmico y la falla de Hayward es probablemente una de las fallas potencialmente más riesgosas en el país", dice McCallen. "Elegimos modelar esta área porque hay muchasinformación sobre la geología aquí, por lo que nuestros modelos están razonablemente bien restringidos por datos reales. Y, si podemos medir con precisión el riesgo y los peligros en el Área de la Bahía, tendrá un gran impacto ".
Señala que la evaluación de riesgo sísmico actual para el norte de California identifica la falla de Hayward como la más probable de romperse con un evento de magnitud 6.7 o mayor antes de 2044. Las simulaciones de movimientos de tierra de terremotos grandes de magnitud 7.0 o más requieren dominiosdel orden de 100-500 km y resolución del orden de aproximadamente uno a cinco metros, lo que se traduce en cientos de miles de millones de puntos de cuadrícula. A medida que los investigadores pretenden modelar movimientos de frecuencia aún más alta entre 5 y 10 hertz, necesitarán más densoLas cuadrículas computacionales y los pasos de tiempo más finos, lo que aumentará las demandas computacionales. La única forma de lograr estas simulaciones es explotar la computación a gran escala, dice McCallen.
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional Lawrence Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :