Saltar al contenido

El aprendizaje automático prolifera en la física de partículas

noviembre 28, 2018
ciencia - Header Machine learning 1 1024x576

Los experimentos en el Gran Colisionador de Hadrones producen aproximadamente un millón de gigabytes de datos por segundo. Incluso después de la reducción y la compresión, los datos recopilados en solo una hora en el LHC son similares al volumen de datos que Facebook recopila en un año entero.

Afortunadamente, los físicos de partículas no tienen que lidiar con todos esos datos por sí mismos. Se asocian con una forma de inteligencia artificial que aprende cómo hacer análisis complejos por sí mismo, llamado aprendizaje automático.

“En comparación con un algoritmo informático tradicional que diseñamos para hacer un análisis específico, diseñamos un algoritmo de aprendizaje automático para descubrir por sí mismo cómo hacer varios análisis, lo que nos permite ahorrar innumerables horas-hombre de trabajo de diseño y análisis”, dice College of El físico de William & Mary Alexander Radovic, que trabaja en el experimento de neutrinos NOvA.

Radovic y un grupo de investigadores resumen las aplicaciones actuales y las perspectivas futuras del aprendizaje automático en física de partículas en un documento publicado hoy en Naturaleza.

Examinando grandes datos

Para manejar los gigantescos volúmenes de datos producidos en experimentos modernos como los del LHC, los investigadores aplican lo que llaman hardware y software dedicado a los “desencadenantes” que deciden en tiempo real qué datos conservar para el análisis y qué datos arrojar.

En LHCb, un experimento que podría arrojar luz sobre por qué hay tanta más materia que antimateria en el universo, los algoritmos de aprendizaje automático toman al menos el 70 por ciento de estas decisiones, dice el científico de LHCb Mike Williams del Instituto de Tecnología de Massachusetts, uno de los autores de la Naturaleza resumen. “El aprendizaje automático desempeña un papel en casi todos los aspectos de datos del experimento, desde desencadenantes hasta el análisis de los datos restantes”, dice.

El aprendizaje automático ha demostrado ser extremadamente exitoso en el área de análisis. Los gigantescos detectores ATLAS y CMS en el LHC, que permitieron el descubrimiento del bosón de Higgs, tienen millones de elementos sensores cuyas señales deben juntarse para obtener resultados significativos.

“Estas señales conforman un espacio de datos complejo”, dice Michael Kagan del Laboratorio de Aceleradores Nacionales del SLAC del Departamento de Energía de EE. UU., Que trabaja en ATLAS y también fue autor del Naturaleza revisión. “Necesitamos entender la relación entre ellos para llegar a conclusiones, por ejemplo, que una determinada pista de partículas en el detector fue producida por un electrón, un fotón u otra cosa”.

Los experimentos de Neutrino también se benefician del aprendizaje automático. NOvA, que es administrado por Fermi National Accelerator Laboratory, estudia cómo los neutrinos cambian de un tipo a otro a medida que viajan a través de la Tierra. Estas oscilaciones de neutrinos podrían revelar la existencia de un nuevo tipo de neutrinos que algunas teorías predicen que es una partícula de materia oscura. Los detectores de NOvA están atentos a las partículas cargadas que se producen cuando los neutrinos golpean el material del detector, y los algoritmos de aprendizaje automático los identifican.

Del aprendizaje automático al aprendizaje profundo

Los recientes desarrollos en el aprendizaje automático a menudo llamados “aprendizaje profundo” prometen llevar las aplicaciones en física de partículas aún más allá. El aprendizaje profundo generalmente se refiere al uso de redes neuronales: algoritmos informáticos con una arquitectura inspirada en la densa red de neuronas en el cerebro humano.

Estas redes neuronales aprenden por sí mismas a realizar ciertas tareas de análisis durante un período de entrenamiento en el que se les muestran datos de muestra, como simulaciones, y se les informa qué tan bien se desempeñaron.

Hasta hace poco, el éxito de las redes neuronales era limitado porque entrenarlas solía ser muy difícil, afirma el coautor Kazuhiro Terao, investigador de SLAC que trabaja en el experimento de neutrinos MicroBooNE, que estudia las oscilaciones de neutrinos como parte del programa de neutrinos de línea base corta de Fermilab. se convertirá en un componente del futuro Experimento de Neutrinos Subterráneos Profundos en la Instalación de Neutrinos de Línea Larga. “Estas dificultades nos limitaron a redes neuronales que tenían solo un par de capas de profundidad”, dice. “Gracias a los avances en algoritmos y hardware de computación, ahora sabemos mucho mejor cómo construir y entrenar redes más capaces de cientos o miles de capas de profundidad”.

Muchos de los avances en el aprendizaje profundo están impulsados ​​por las aplicaciones comerciales de los gigantes tecnológicos y la explosión de datos que han generado en las últimas dos décadas. “NOvA, por ejemplo, usa una red neuronal inspirada en la arquitectura de GoogleNet”, dice Radovic. “Mejoró el experimento de maneras que de otro modo solo se podrían haber logrado recopilando un 30 por ciento más de datos”.

Un terreno fértil para la innovación

Los algoritmos de aprendizaje automático se vuelven más sofisticados y ajustados día a día, lo que abre oportunidades sin precedentes para resolver problemas de física de partículas.

Muchas de las nuevas tareas para las que podrían usarse están relacionadas con la visión artificial, dice Kagan. “Es similar al reconocimiento facial, excepto que en la física de partículas, las características de la imagen son más abstractas y complejas que las orejas y las narices”.

Algunos experimentos como NOvA y MicroBooNE producen datos que pueden traducirse fácilmente a imágenes reales, y AI puede utilizarse fácilmente para identificar características en ellos. En los experimentos de LHC, por otro lado, las imágenes primero necesitan reconstruirse a partir de un conjunto turbio de datos generados por millones de elementos sensores.

“Pero incluso si los datos no se parecen a imágenes, aún podemos utilizar métodos de visión por computadora si podemos procesar los datos de la manera correcta”, dice Radovic.

Un área donde este enfoque podría ser muy útil es el análisis de chorros de partículas producidos en grandes cantidades en el LHC. Los chorros son aerosoles estrechos de partículas cuyas pistas individuales son extremadamente difíciles de separar. La tecnología de visión por computadora podría ayudar a identificar las características de los aviones.

Otra aplicación emergente del aprendizaje profundo es la simulación de datos de física de partículas que predicen, por ejemplo, qué ocurre en las colisiones de partículas en el LHC y se puede comparar con los datos reales. Las simulaciones de este tipo suelen ser lentas y requieren un gran poder de cómputo. AI, por otro lado, podría hacer simulaciones mucho más rápido, complementando potencialmente el enfoque tradicional.

“Hace apenas unos años, nadie hubiera pensado que las redes neuronales profundas pueden ser entrenadas para 'alucinar' los datos del ruido aleatorio”, dice Kagan. “Aunque este es un trabajo muy temprano, muestra muchas promesas y puede ayudar con los desafíos de datos del futuro”.

Beneficiarse del saludable escepticismo

A pesar de todos los avances obvios, los entusiastas del aprendizaje automático a menudo se enfrentan al escepticismo de sus socios de colaboración, en parte porque los algoritmos de aprendizaje automático funcionan casi como “cajas negras” que proporcionan muy poca información sobre cómo llegaron a una determinada conclusión.

“El escepticismo es muy saludable”, dice Williams. “Si usas el aprendizaje automático para desencadenantes que descartan datos, como hacemos en LHCb, entonces debes ser extremadamente precavido y establecer un nivel muy alto”.

Por lo tanto, establecer el aprendizaje automático en física de partículas requiere esfuerzos constantes para comprender mejor el funcionamiento interno de los algoritmos y realizar verificaciones cruzadas con datos reales siempre que sea posible.

“Siempre debemos tratar de entender lo que hace un algoritmo de computadora y siempre evaluar su resultado”, dice Terao. “Esto es cierto para cada algoritmo, no solo para el aprendizaje automático. Entonces, ser escéptico no debería detener el progreso “.

El rápido progreso ha hecho que algunos investigadores sueñen con lo que podría ser posible en el futuro cercano. “Hoy estamos utilizando el aprendizaje automático principalmente para encontrar funciones en nuestros datos que pueden ayudarnos a responder algunas de nuestras preguntas”, dice Terao. “Dentro de diez años, los algoritmos de aprendizaje automático podrán formular sus propias preguntas de forma independiente y reconocer cuándo encuentran una nueva física”.