El Gran Colisionador de Hadrones LHC cerca de Ginebra, Suiza, se hizo famoso en todo el mundo en 2012 con la detección del bosón de Higgs. La observación marcó una confirmación crucial del Modelo Estándar de física de partículas, que organiza las partículas subatómicas en grupos similaresa elementos en la tabla periódica de química.
El Laboratorio Nacional Argonne del Departamento de Energía de los EE. UU. DOE ha realizado muchas contribuciones fundamentales para la construcción y operación del detector experimental ATLAS en el LHC y para el análisis de las señales registradas por el detector que descubren la física subyacente de las colisiones de partículas.Argonne ahora está desempeñando un papel principal en la actualización de alta luminosidad del detector ATLAS para las operaciones que se planean comenzar en 2027. Para ese fin, un equipo de físicos y científicos computacionales de Argonne ha ideado un algoritmo basado en aprendizaje automático que se aproxima a cómoel detector actual respondería a los datos considerablemente mayores esperados con la actualización.
Como la máquina de física más grande jamás construida, el LHC dispara dos haces de protones en direcciones opuestas alrededor de un anillo de 17 millas hasta que se acercan a la velocidad de la luz, los junta y analiza los productos de colisión con detectores gigantes como ATLAS.El instrumento ATLAS tiene aproximadamente la altura de un edificio de seis pisos y pesa aproximadamente 7,000 toneladas. Hoy, el LHC continúa estudiando el bosón de Higgs, así como aborda preguntas fundamentales sobre cómo y por qué la materia en el universo es como es.
"La mayoría de las preguntas de investigación en ATLAS involucran encontrar una aguja en un pajar gigante, donde los científicos solo están interesados en encontrar un evento que ocurra entre mil millones más", dijo Walter Hopkins, físico asistente en la división de Física de Alta Energía HEP de Argonne.
Como parte de la actualización del LHC, ahora están progresando los esfuerzos para aumentar la luminosidad del LHC, el número de interacciones protón a protón por colisión de los dos haces de protones, en un factor de cinco. Esto producirá aproximadamente 10 vecesmás datos por año que los adquiridos actualmente por los experimentos de LHC. Aún debe entenderse qué tan bien responden los detectores a este aumento de la tasa de eventos. Esto requiere ejecutar simulaciones de computadora de los detectores de alto rendimiento para evaluar con precisión los procesos conocidos resultantes de colisiones de LHCEstas simulaciones a gran escala son costosas y exigen grandes cantidades de tiempo de computación en las mejores y más poderosas supercomputadoras del mundo.
El equipo de Argonne ha creado un algoritmo de aprendizaje automático que se ejecutará como una simulación preliminar antes de cualquier simulación a gran escala. Este algoritmo se aproxima, de maneras muy rápidas y menos costosas, a cómo respondería el detector actual a la gran cantidad de datos esperadoscon la actualización. Implica la simulación de las respuestas del detector a un experimento de colisión de partículas y la reconstrucción de objetos a partir de los procesos físicos. Estos objetos reconstruidos incluyen chorros o pulverizaciones de partículas, así como partículas individuales como electrones y muones.
"El descubrimiento de una nueva física en el LHC y en otros lugares exige métodos cada vez más complejos para el análisis de grandes datos", dijo Doug Benjamin, un científico computacional en HEP. "En estos días eso generalmente significa el uso del aprendizaje automático y otras técnicas de inteligencia artificial."
Los métodos de análisis utilizados anteriormente para las simulaciones iniciales no han empleado algoritmos de aprendizaje automático y requieren mucho tiempo porque implican actualizar manualmente los parámetros experimentales cuando cambian las condiciones en el LHC. Algunos también pueden perder correlaciones de datos importantes para un conjunto dado de variables de entrada a unexperimento. El algoritmo desarrollado por Argonne aprende, en tiempo real, mientras se aplica un procedimiento de entrenamiento, las diversas características que deben introducirse a través de simulaciones completas detalladas, evitando así la necesidad de elaborar parámetros experimentales. El método también puede capturar interdependencias complejas de variablesque no ha sido posible antes
"Con nuestra simulación simplificada, puede aprender los conceptos básicos a un costo y tiempo computacional comparativamente bajos, luego puede proceder con simulaciones completas mucho más eficientemente en una fecha posterior", dijo Hopkins. "Nuestro algoritmo de aprendizaje automático también proporciona a los usuarioscon un mayor poder de discriminación sobre dónde buscar eventos nuevos o raros en un experimento ", agregó.
El algoritmo del equipo podría resultar invaluable no solo para ATLAS, sino también para los múltiples detectores experimentales en el LHC, así como para otros experimentos de física de partículas que se están llevando a cabo en todo el mundo.
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional de Argonne . Original escrito por Joseph E. Harmon. Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :