Saltar al contenido

La revolución informática de LHC | revista de simetría

diciembre 6, 2018

Los científicos concibieron el Gran Colisionador de Hadrones y sus experimentos en 1992. En aquel entonces, Apple estaba empezando a descubrir la computadora portátil, y un compañero del CERN llamado Tim Berners-Lee acababa de lanzar el código para un proyecto llamado World Wide Web.

“En los días en que comenzamos, no había Google. No hubo Facebook No hubo Twitter Todas estas empresas que abordan el big data no existían “, dice Graeme Stewart, un especialista en software del CERN que trabaja en el experimento ATLAS. “Big Data no existía”.

Los experimentos de LHC crecieron con la informática y han sido notables en su capacidad para adaptarse a la tecnología en evolución. En los últimos 15 años, los investigadores han escrito más de 20 millones de líneas de código que gobiernan todo, desde la adquisición de datos hasta el análisis final. Pero los físicos están ansiosos de que el código continuamente acumulado haya comenzado a plantear un problema.

“Este software no es sostenible”, dice Peter Elmer, físico de Princeton. “Muchos de los autores originales han abandonado la física. Dadas las complejas demandas futuras del software, será muy difícil evolucionar “.

Cuando Stewart y sus colegas de ingeniería informática diseñaban la estructura informática para el programa de investigación LHC, se centraron en hacer que sus máquinas realizaran una única tarea más rápido y más rápido.

“Y luego, a mediados de la década de 2000, los fabricantes de hardware chocaron contra una pared y era imposible hacer que una computadora hiciera una sola cosa más rápidamente”, dice Stewart, “así que en su lugar comenzaron a hacer algo que llamamos concurrencia: el capacidad de una computadora para hacer más de una cosa al mismo tiempo. Y ese fue un momento desafortunado para nosotros. Si hubiera sucedido cinco o 10 años antes, habríamos construido ese paradigma concurrente en el marco del software para el inicio del LHC, pero llegó un poco tarde “.

Gracias a la concurrencia, las laptops personales actuales pueden realizar aproximadamente cuatro tareas al mismo tiempo, y los procesadores en los clusters de cómputo del CERN pueden realizar alrededor de 30 tareas a la vez. Pero las tarjetas gráficas, como las GPU utilizadas en los juegos, ahora pueden procesar hasta 500 tareas a la vez.

“Es fundamental que aprovechemos estas nuevas arquitecturas para aprovechar al máximo el programa de investigación de LHC”, dice Stewart. “Al mismo tiempo, la adaptación a ese tipo de hardware es un desafío tremendo”.

Los experimentos necesitarán estos avances de hardware. En ocho años, se encenderá una versión turbo del LHC con un haz de protones cuatro veces más intenso que en la actualidad. Esta transformación proporcionará a los científicos el enorme volumen de datos que necesitan para buscar nueva física y estudiar procesos raros. Pero según Stewart, el software de hoy no podrá manejarlo.

“El volumen de datos anticipa saltos en un orden de magnitud, y la complejidad aumenta en un orden de magnitud”, dice. “Esos son enormes desafíos informáticos, y la mejor manera de tener éxito es si trabajamos en común”.

Stewart y Elmer son parte de una gran iniciativa comunitaria que está planificando cómo enfrentarán los enormes desafíos informáticos de los cuatro grandes experimentos de LHC y preparar el programa para otras dos décadas de recopilación intensiva de datos.

Según un libro blanco recientemente publicado por la High Energy Physics Software Foundation, el software y la potencia informática serán el mayor factor limitante para la cantidad de datos que los experimentos de LHC pueden recopilar y procesar, por lo que “el alcance de la física durante HL-LHC estar limitado por cuán eficientemente se pueden usar estos recursos “.

Por lo tanto, la HEP Software Foundation se ha propuesto adaptar el software LHC al hardware informático moderno para que todo el sistema pueda funcionar de forma más eficaz y eficiente. “Es como diseñar un automóvil”, dice Stewart. “Puede diseñar algo con neumáticos realmente buenos, pero si no se ajusta al eje, el resultado final no funcionará muy bien”.

En lugar de crear soluciones personalizadas para cada experimento, lo cual tomaría mucho tiempo y sería costoso, la comunidad se está uniendo para identificar dónde se superponen sus necesidades informáticas.

“El noventa por ciento de lo que hacemos es lo mismo, así que si podemos desarrollar un sistema común que todos los experimentos puedan usar, eso nos ahorra mucho tiempo y recursos informáticos”, dice Stewart. “Estamos creando kits de herramientas y bibliotecas que protegen al físico promedio de la complejidad del hardware y les dan buenos indicadores y directrices sobre cómo escriben realmente su código y lo integran en un sistema más grande”.

Estos cambios incrementales gradualmente modernizarán la computación de LHC y ayudarán a mantener la continuidad con todo el trabajo anterior. También permitirá que el sistema siga siendo flexible y adaptable a los avances futuros en informática.

“El descubrimiento del Higgs está detrás de nosotros”, dice Elmer. “El juego está cambiando, y tenemos que estar preparados”.