Una nueva herramienta de simulación 3D de partículas en celda PIC desarrollada por investigadores del Laboratorio Nacional Lawrence Berkeley y CEA Saclay está permitiendo simulaciones de vanguardia de mecanismos de acoplamiento láser / plasma que antes estaban fuera del alcance de los códigos PIC estándar utilizados eninvestigación de plasma: una comprensión más detallada de estos mecanismos es fundamental para el desarrollo de aceleradores de partículas ultracompactos y fuentes de luz que puedan resolver desafíos de larga data en medicina, industria y ciencia fundamental de manera más eficiente y rentable.
En experimentos con plasma láser, como los del Centro Berkeley Lab Laser Accelerator BELLA y el CEA Saclay, una instalación de investigación internacional en Francia que forma parte de la Comisión Francesa de Energía Atómica, campos eléctricos muy grandes dentro de plasmas queAcelerar los haces de partículas a altas energías en distancias mucho más cortas en comparación con las tecnologías de acelerador existentes. El objetivo a largo plazo de estos aceleradores de plasma láser LPA es algún día construir colisionadores para la investigación de alta energía, pero se están desarrollando muchas derivacionesya. Por ejemplo, los LPA pueden depositar rápidamente grandes cantidades de energía en materiales sólidos, creando plasmas densos y sometiendo esta materia a temperaturas y presiones extremas. También tienen el potencial de conducir láseres de electrones libres que generan pulsos de luz que duran tan solo unos segundos.pulsos extremadamente cortos podrían permitir a los investigadores observar las interacciones de moléculas, átomos e incluso partículas subatómicas en una escala de tiempo extremadamente cortas.
Las simulaciones de supercomputadoras se han vuelto cada vez más críticas para esta investigación, y el Centro Nacional de Computación Científica de Investigación de Energía de Berkeley NERSC se ha convertido en un recurso importante en este esfuerzo. Al dar a los investigadores acceso a observables físicos como órbitas de partículas y campos radiados que son durosPara realizar experimentos en escalas de tiempo y longitud extremadamente pequeñas, las simulaciones PIC han desempeñado un papel importante en la comprensión, el modelado y la guía de experimentos de física de alta intensidad, pero la falta de códigos PIC que tengan suficiente precisión computacional para modelar la interacción láser-materia enintensidades ultra altas han obstaculizado el desarrollo de nuevas partículas y fuentes de luz producidas por esta interacción.
Este desafío llevó al equipo de Berkeley Lab / CEA Saclay a desarrollar su nueva herramienta de simulación, denominada Warp + PXR, un esfuerzo iniciado durante la primera ronda del Programa de Aplicaciones de Ciencias Exascale de NERSC NESAP. El código combina el PIC 3D ampliamente utilizadocode Warp con la biblioteca de alto rendimiento PICSAR desarrollada conjuntamente por Berkeley Lab y CEA Saclay. También aprovecha un nuevo tipo de solucionador pseudo-espectral masivamente paralelo desarrollado conjuntamente por Berkeley Lab y CEA Saclay que mejora dramáticamente la precisión de las simulaciones comparadasa los solucionadores típicamente utilizados en la investigación de plasma.
De hecho, sin este nuevo solucionador altamente escalable, "las simulaciones que estamos haciendo ahora no serían posibles", dijo Jean-Luc Vay, físico senior en Berkeley Lab que dirige el Programa de Modelado del Acelerador en la Física Aplicada del Laboratorio yDivisión de Tecnologías de Acelerador ". Como nuestro equipo demostró en un estudio anterior, este nuevo solucionador espectral FFT permite una precisión mucho mayor que la que se puede hacer con solucionadores de dominio de tiempo de diferencia finita FDTD, por lo que pudimos alcanzar algunos espacios de parámetros que no tendríanha sido accesible con solucionadores FDTD estándar ". Este nuevo tipo de solucionador espectral también está en el corazón del algoritmo PIC de próxima generación con refinamiento de malla adaptativo que Vay y sus colegas están desarrollando en el nuevo código Warp-X como parte del Departamento de EE.UU.Proyecto de Computación Exascale de Energía.
Simulaciones 2D y 3D críticas
Vay también es coautor de un artículo publicado el 21 de marzo en Revisión física X que informa sobre el primer estudio exhaustivo de los mecanismos de acoplamiento láser-plasma utilizando Warp + PXR. Ese estudio combinó mediciones experimentales de vanguardia realizadas en la instalación láser UHI100 en CEA Saclay con simulaciones 2D y 3D de vanguardiase ejecuta en la supercomputadora Cori en NERSC y en los sistemas Mira y Theta en la Instalación de Computación de Liderazgo Argonne en el Laboratorio Nacional Argonne. Estas simulaciones permitieron al equipo comprender mejor los mecanismos de acoplamiento entre la luz láser ultra intensa y el plasma denso que creó, proporcionandonuevas ideas sobre cómo optimizar las partículas ultraligeras y las fuentes de luz. Los puntos de referencia con Warp + PXR mostraron que el código es escalable en hasta 400,000 núcleos en Cori y 800,000 núcleos en Mira y puede acelerar el tiempo de solución hasta en tresórdenes de magnitud sobre problemas relacionados con experimentos de física de ultra alta intensidad.
"No podemos repetir o reproducir constantemente lo que sucedió en el experimento con simulaciones en 2D, necesitamos 3D para esto", dijo el coautor Henri Vincenti, científico del grupo de física de alta intensidad en CEA Saclay. Vincenti dirigió la teoría/ trabajo de simulación para el nuevo estudio y fue becario postdoctoral Marie Curie en Berkeley Lab en el grupo de Vay, donde comenzó a trabajar en el nuevo código y solucionador ". Las simulaciones en 3D también fueron muy importantes para poder comparar la precisión aportada porel nuevo código contra los experimentos "
Para el experimento descrito en el Revisión física X en papel, los investigadores de CEA Saclay utilizaron un rayo láser de femtosegundo de alta potencia 100TW en la instalación UHI100 de CEA enfocado en un objetivo de sílice para crear un plasma denso. Además, dos diagnósticos: una pantalla centelleante Lanex y un ultravioleta extremoespectrómetro: se aplicaron para estudiar la interacción láser-plasma durante el experimento. Las herramientas de diagnóstico presentaron desafíos adicionales a la hora de estudiar escalas de tiempo y longitud mientras el experimento se estaba ejecutando, haciendo que las simulaciones fueran críticas para los hallazgos de los investigadores.
"A menudo en este tipo de experimento no puede acceder a las escalas de tiempo y longitud involucradas, especialmente porque en los experimentos tiene un campo láser muy intenso en su objetivo, por lo que no puede poner ningún diagnóstico cerca del objetivo", dijoFabien Quéré, un científico investigador que dirige el programa experimental en CEA y es coautor del artículo PRX. "En este tipo de experimento, estamos observando las cosas emitidas por el objetivo que está lejos - 10, 20 cm -- y sucede en tiempo real, esencialmente, mientras la física está en la escala de micrones o submicrones y en una escala de subfemtosegundos en el tiempo. Por lo tanto, necesitamos las simulaciones para descifrar lo que está sucediendo en el experimento ".
"Las simulaciones de primeros principios que utilizamos para esta investigación nos dieron acceso a la dinámica compleja de la interacción del campo láser, con el objetivo sólido al nivel de detalle de las órbitas de partículas individuales, lo que nos permitió comprender mejor lo que estaba sucediendo en elexperimento ", agregó Vincenti.
Estas simulaciones muy grandes con un solucionador de FFT espectral de ultra alta precisión fueron posibles gracias a un cambio de paradigma introducido en 2013 por Vay y sus colaboradores. En un estudio publicado en el Journal of Computational Physics, observaron que, al resolver el problema de Maxwell dependiente del tiempoecuaciones, el método de paralelización FFT estándar que es global y requiere comunicaciones entre procesadores en todo el dominio de simulación podría reemplazarse por una descomposición del dominio con FFT locales y comunicaciones limitadas a procesadores vecinos. Además de permitir una escala mucho más favorable fuerte y débilen un gran número de nodos de computadora, el nuevo método también es más eficiente en cuanto a energía porque reduce las comunicaciones.
"Con los algoritmos FFT estándar es necesario hacer comunicaciones en toda la máquina", dijo Vay. "Pero el nuevo solucionador espectral FFT permite ahorros en tiempo y energía de la computadora, lo cual es un gran problema para las nuevas arquitecturas de supercomputación que se están introduciendo."
Otros miembros del equipo involucrados en el último estudio y coautores del nuevo documento PRX incluyen: Maxence Thévenet, un investigador postdoctoral cuyo aporte también fue importante para ayudar a explicar los hallazgos del experimento; Guillaume Blaclard, un laboratorio de Berkeleyafiliado que está trabajando en su doctorado en CEA Saclay y realizó muchas de las simulaciones que se informaron en este trabajo; Pr. Guy Bonnaud, un científico senior de CEA cuya contribución fue importante en la comprensión de los resultados de la simulación; y los científicos de CEA LudovicChopineau, Adrien Leblanc, Adrien Denoeud y Philippe Martin, quienes diseñaron y realizaron el muy desafiante experimento en UHI100 bajo la supervisión de Fabien Quéré.
NERSC es una instalación de usuarios de la Oficina de Ciencia del DOE. El programa INCITE Innovative and Novel Computational Impact on Theory and Experiment brindó apoyo adicional para esta investigación.
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional Lawrence Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cite esta página :