Debido a la composición en capas de la Tierra, los científicos a menudo han comparado la disposición básica de su interior con la de una cebolla. Está la familiar corteza delgada de los continentes y los fondos oceánicos; el grueso manto de roca caliente y semisólida; el núcleo externo de metal fundido;y el núcleo interno de hierro sólido.
Pero a diferencia de una cebolla, pelar las capas de la Tierra para explorar mejor la dinámica planetaria no es una opción, lo que obliga a los científicos a hacer conjeturas acerca de la vida interna de nuestro planeta basadas en observaciones a nivel de superficie. Sin embargo, las técnicas de imagen ingeniosas diseñadas por científicos computacionales,ofrecen la promesa de iluminar los secretos subterráneos de la Tierra.
Utilizando modelado y simulación avanzados, datos sísmicos generados por terremotos y una de las supercomputadoras más rápidas del mundo, un equipo dirigido por Jeroen Tromp de la Universidad de Princeton está creando una imagen tridimensional detallada del interior de la Tierra. Actualmente, el equipo se centra enimaginando el globo entero desde la superficie hasta el límite del manto central, una profundidad de 1,800 millas.
Estas simulaciones de alta fidelidad agregan contexto a los debates en curso relacionados con la historia y la dinámica geológica de la Tierra, trayendo características prominentes como placas tectónicas, columnas de magma y puntos calientes a la vista. En 2016, el equipo lanzó su modelo global de primera generación. Creado usandodatos de 253 terremotos capturados por sismogramas diseminados por todo el mundo, el modelo del equipo es notable por su alcance global y alta escalabilidad.
"Este es el primer modelo sísmico global en el que no se utilizaron aproximaciones, aparte del método numérico elegido, para simular cómo viajan las ondas sísmicas a través de la Tierra y cómo perciben las heterogeneidades", dijo Ebru Bozdag, investigador coprincipal del proyectoy profesora asistente de geofísica en la Universidad de Niza, Sophia Antipolis. "Ese es un hito para la comunidad de sismología. Por primera vez, mostramos a las personas el valor y la viabilidad de ejecutar este tipo de herramientas para la obtención de imágenes sísmicas globales".
La génesis del proyecto se remonta a una teoría de imagen sísmica propuesta por primera vez en la década de 1980. Para llenar los vacíos dentro de los mapas de datos sísmicos, la teoría planteó un método llamado tomografía adjunta, una técnica de inversión iterativa de forma de onda completa. Esta técnica aprovecha más informaciónque los métodos de la competencia, utilizando ondas hacia adelante que viajan desde el origen del terremoto al receptor sísmico y ondas contiguas, que son ondas derivadas matemáticamente que viajan desde el receptor al terremoto.
¿El problema con probar esta teoría? "Se necesitan computadoras realmente grandes para hacer esto", dijo Bozdag, "porque las simulaciones de onda directa y contigua se realizan en 3-D numéricamente".
En 2012, tal máquina llegó en forma de la supercomputadora Titan, una Cray XK7 de 27 petaflop administrada por la Instalación de Computación de Liderazgo Oak Ridge OLCF del Departamento de Energía de los Estados Unidos DOE, una Instalación de Usuario de la Oficina de Ciencia de DOEubicado en el Laboratorio Nacional Oak Ridge del DOE. Después de probar su método en máquinas más pequeñas, el equipo de Tromp obtuvo acceso a Titán en 2013 a través del programa Innovative and Novel Computational Impact on Theory and Experiment, o INCITE.
Trabajando con el personal de OLCF, el equipo continúa empujando los límites de la sismología computacional a profundidades más profundas.
Coser juntas rodajas sísmicas
Cuando ocurre un terremoto, la liberación de energía crea ondas sísmicas que a menudo causan estragos en la superficie de la vida. Sin embargo, esas mismas ondas presentan una oportunidad para que los científicos miren hacia el subsuelo midiendo las vibraciones que pasan por la Tierra.
A medida que viajan las ondas sísmicas, los sismogramas pueden detectar variaciones en su velocidad. Estos cambios proporcionan pistas sobre la composición, densidad y temperatura del medio por el que pasa la onda. Por ejemplo, las ondas se mueven más lentamente cuando pasan a través del magma caliente, comoplumas de manto y puntos calientes, que cuando pasan a través de zonas de subducción más frías, lugares donde una placa tectónica se desliza debajo de otra.
Cada sismograma representa una porción estrecha del interior del planeta. Al unir muchos sismogramas, los investigadores pueden producir una imagen global en 3-D, capturando todo, desde plumas de magma que alimentan el Anillo de Fuego, hasta los puntos calientes de Yellowstone, hasta placas subducidas bajo Nueva Zelanda.
Este proceso, llamado tomografía sísmica, funciona de manera similar a las técnicas de imagen empleadas en medicina, donde las imágenes de rayos X en 2-D tomadas desde muchas perspectivas se combinan para crear imágenes en 3-D de áreas dentro del cuerpo.
En el pasado, las técnicas de tomografía sísmica han sido limitadas en la cantidad de datos sísmicos que pueden usar. Los métodos tradicionales obligaron a los investigadores a hacer aproximaciones en sus simulaciones de ondas y restringir los datos de observación solo a las fases sísmicas principales. Tomografía adjunta basada en 3-DLas simulaciones numéricas empleadas por el equipo de Tromp no están limitadas de esta manera: "Podemos usar todos los datos, cualquier cosa", dijo Bozdag.
Al ejecutar su versión de GPU del código SPECFEM3D_GLOBE, el equipo de Tromp usó Titan para aplicar la inversión de forma de onda completa a escala global. Luego, el equipo comparó estos "sismogramas sintéticos" con los datos sísmicos observados suministrados por las Instituciones de Investigación Incorporadas para Sismología IRIS, calculando la diferencia y volviendo a introducir esa información en el modelo para una mayor optimización. Cada repetición de este proceso mejora los modelos globales.
"Esto es lo que llamamos el flujo de trabajo de tomografía adjunto, y a escala global requiere que se ejecute una supercomputadora como Titan en un plazo razonable", dijo Bozdag. "Para nuestro modelo de primera generación, completamos 15 iteraciones, que esen realidad es un número pequeño para este tipo de problemas. A pesar del pequeño número de iteraciones, nuestro modelo global mejorado muestra el poder de nuestro enfoque. Sin embargo, esto es solo el comienzo ".
Automatizando para aumentar
Para su modelo global inicial, el equipo de Tromp seleccionó eventos de terremotos que se registraron entre 5.8 y 7 en la escala de Richter, un estándar para medir la intensidad del terremoto. Ese rango puede extenderse ligeramente para incluir más de 6,000 terremotos en la base de datos de IRISaproximadamente 20 veces la cantidad de datos utilizados en el modelo original.
Obtener el máximo provecho de todos los datos disponibles requiere un flujo de trabajo automatizado robusto capaz de acelerar el proceso iterativo del equipo. Colaborando con el personal de OLCF, el equipo de Tromp ha avanzado hacia este objetivo.
Para el modelo de primera generación del equipo, Bozdag llevó a cabo cada paso del flujo de trabajo manualmente, tomando aproximadamente un mes para completar una actualización del modelo. Los miembros del equipo Matthieu Lefebvre, Wenjie Lei y Youyi Ruan de la Universidad de Princeton y Judy Hill del OLCF desarrollaronnuevos procesos de flujo de trabajo automatizados que prometen reducir ese ciclo a una cuestión de días.
"La automatización realmente lo hará más eficiente, y también reducirá el error humano, que es bastante fácil de introducir", dijo Bozdag.
El apoyo adicional del personal de OLCF ha contribuido al uso eficiente y la accesibilidad de los datos del proyecto. Al principio de la vida del proyecto, el equipo de Tromp trabajó con Norbert Podhorszki del OLCF para mejorar el movimiento y la flexibilidad de los datos. El resultado final, llamado Formato de datos sísmicos adaptables ASDF, aprovecha la biblioteca paralela del Sistema de E / S adaptable ADIOS y le da al equipo de Tromp un formato de archivo superior para registrar, reproducir y analizar datos en recursos de computación paralela a gran escala.
Además, David Pugmire de OLCF ayudó al equipo a implementar herramientas de visualización in situ. Estas herramientas permitieron a los miembros del equipo verificar su trabajo más fácilmente desde las estaciones de trabajo locales al permitir que se produzcan visualizaciones junto con la simulación en Titán, eliminando la necesidad de costosastransferencias de archivos
"A veces el diablo está en los detalles, así que realmente debes tener cuidado y saber lo que estás viendo", dijo Bozdag. "Las herramientas de visualización de David nos ayudan a investigar nuestros modelos y ver qué hay y qué no"."
Con la visualización, la magnitud del proyecto del equipo sale a la luz. El ciclo de mil millones de años de roca fundida que se eleva desde el límite del manto central y cae desde la corteza, no muy diferente del movimiento de los glóbulos en una lámpara de lavaforma, al igual que otras características geológicas de interés.
En esta etapa, la resolución del modelo global del equipo está avanzando lo suficiente como para informar estudios continentales, particularmente en regiones con una cobertura de datos densa. Haciéndolo útil a nivel regional o más pequeño, como la actividad del manto debajo del sur de California o elcorteza de Estambul propensa a terremotos, requerirá trabajo adicional.
"La mayoría de los modelos globales en sismología coinciden a grandes escalas pero difieren significativamente entre sí en las escalas más pequeñas", dijo Bozdag. "Por eso es crucial tener una imagen más precisa del interior de la Tierra. Crear imágenes de alta resolución del mantonos permitirá contribuir a estas discusiones "
Cavando más profundo
Para mejorar aún más la precisión y la resolución, el equipo de Tromp está experimentando con los parámetros del modelo bajo su asignación INCITE más reciente. Por ejemplo, el modelo de segunda generación del equipo introducirá inversiones anisotrópicas, que son cálculos que capturan mejor las diferentes orientaciones y movimientos de rocaen el manto. Esta nueva información debería dar a los científicos una imagen más clara del flujo del manto, la composición y las interacciones corteza-manto.
Además, los miembros del equipo Dimitri Komatitsch de la Universidad Aix-Marseille en Francia y Daniel Peter de la Universidad King Abdullah en Arabia Saudita están liderando los esfuerzos para actualizar SPECFEM3D_GLOBE para incorporar capacidades tales como la simulación de ondas sísmicas de alta frecuencia. La frecuencia de una sísmicaLa onda, medida en hercios, es equivalente al número de ondas que pasan por un punto fijo en un segundo. Por ejemplo, la frecuencia mínima actual utilizada en la simulación del equipo es de aproximadamente 0,05 hertzios 1 ola por 20 segundos, pero Bozdag dijo queal equipo también le gustaría incorporar ondas sísmicas de hasta 1 hertz 1 onda por segundo. Esto le permitiría modelar detalles más finos en el manto de la Tierra e incluso comenzar a mapear el núcleo de la Tierra.
Para dar este salto, el equipo de Tromp se está preparando para Summit, la supercomputadora de próxima generación de la OLCF. Preparada para llegar en 2018, Summit proporcionará al menos cinco veces la potencia informática de Titán. Como parte del Centro de Preparación Acelerada de Aplicaciones de la OLCF, El equipo de Tromp está trabajando con el personal de OLCF para aprovechar la potencia informática de Summit a su llegada.
"Con Summit, podremos obtener imágenes de todo el globo desde la corteza hasta el centro de la Tierra, incluido el núcleo", dijo Bozdag. "Nuestros métodos son caros, necesitamos una supercomputadora para llevarlos a cabo,pero nuestros resultados muestran que estos gastos están justificados, incluso son necesarios "
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional de Oak Ridge . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :