La tecnología prototipo de aprendizaje automático desarrollada conjuntamente por científicos del MIT acelera el procesamiento hasta 175 veces más que los métodos tradicionales.
Una nueva tecnología de aprendizaje automático probada por un equipo internacional de científicos, incluido el profesor asistente del MIT Philip Harris y el posdoctorado Dylan Rankin, ambos del Laboratorio de Ciencias Nucleares, puede detectar firmas de partículas específicas entre un océano de datos del Gran Colisionador de Hadrones (LHC) en un abrir y cerrar de ojos. de un ojo
Sofisticado y rápido, el nuevo sistema permite vislumbrar el papel revolucionario que desempeñará el aprendizaje automático en los descubrimientos futuros de la física de partículas a medida que los conjuntos de datos se vuelvan más grandes y complejos.
El LHC crea unos 40 millones de colisiones cada segundo. Con una cantidad tan grande de datos para filtrar, se necesitan computadoras poderosas para identificar las colisiones que pueden ser de interés para los científicos, ya sea, tal vez, un indicio de materia oscura o una partícula de Higgs.
Ahora, los científicos del Fermilab, el CERN, el MIT, la Universidad de Washington y otros lugares han probado un sistema de aprendizaje automático que acelera el procesamiento entre 30 y 175 veces en comparación con los métodos existentes.
Dichos métodos actualmente procesan menos de una imagen por segundo. Por el contrario, el nuevo sistema de aprendizaje automático puede revisar hasta 600 imágenes por segundo. Durante su período de entrenamiento, el sistema aprendió a seleccionar un tipo específico de patrón de partículas posterior a la colisión.
“Los patrones de colisión que estamos identificando, los top quarks, son una de las partículas fundamentales que investigamos en el Gran Colisionador de Hadrones”, dice Harris, quien es miembro del Departamento de Física del MIT. “Es muy importante que analicemos la mayor cantidad de datos posible. Cada dato contiene información interesante sobre cómo interactúan las partículas”.
Esos datos llegarán como nunca antes después de que se completen las actualizaciones actuales del LHC; para 2026, se espera que el acelerador de partículas de 17 millas produzca 20 veces más datos que en la actualidad. Para hacer las cosas aún más apremiantes, las imágenes futuras también se tomarán con resoluciones más altas que las actuales. En total, los científicos e ingenieros estiman que el LHC necesitará más de 10 veces la potencia informática que tiene actualmente.
«El desafío de la ejecución futura», dice Harris, «se vuelve cada vez más difícil a medida que nuestros cálculos se vuelven más precisos y probamos efectos cada vez más precisos».
Los investigadores del proyecto entrenaron su nuevo sistema para identificar imágenes de quarks top, el tipo de partícula elemental más masivo, unas 180 veces más pesado que un protón. “Con las arquitecturas de aprendizaje automático que tenemos disponibles, podemos obtener resultados de calidad científica de alto grado, comparables a los mejores algoritmos de identificación de quarks superiores del mundo”, explica Harris. “La implementación de algoritmos centrales a alta velocidad nos brinda la flexibilidad para mejorar la computación del LHC en los momentos críticos donde más se necesita”.