El centro de procesado de datos del CERN ha conseguido un récord histórico, superando la barrera de los 200 petabytes de datos físicos almacenados de forma permanente en sus librerías. La mayor parte de esta información procede de los experimentos que se realizan en el Gran Colisionador de Hadrones o LHC de Ginebra (Suiza), que ha celebrado esta semana el quinto aniversario del descubrimiento del bosón de Higgs. Según ha detallado el CERN en un comunicado, las partículas colisionan en el interior de los detectores aproximadamente mil millones de veces por segundo, generando un petabyte de información por segundo.

En la actualidad, es imposible almacenar esta cantidad de datos con los sistemas de computación actuales, por lo que se debe filtrar la información que finalmente queda registrada. El Centro de Datos del CERN almacena únicamente los datos más "interesantes"; a pesar de la drástica reducción de información que se procesa y se guarda, el mayor laboratorio de física de partículas del mundo registra de media un petabyte de información por día. Así pudo el CERN superar su récord histórico de almacenamiento de datos físicos el pasado 29 de junio. Hasta la fecha, el laboratorio conseguía el registro de 30 petabytes por año de información procedente de los experimentos del LHC, una cantidad suficiente para grabar 1,2 millones de discos Blu-ray o rellenar 250 años de vídeos en HD, y que había permitido almacenar 100 petabytes de forma permanente, un récord ya superado.

El acelerador de partículas de Ginebra ha producido volúmenes de datos sin precedentes en los últimos dos años gracias a los cuatro experimentos principales del LHC: ATLAS, CMS, ALICE y LHCb. Este último logró detectar una nueva partícula subatómica perseguida durante años, que había sido predicha por el Modelo Estándar pero cuya existencia fue confirmada ayer mismo. El gran rendimiento y la disponibilidad del Gran Colisionador de Hadrones, junto con el incremento de luminosidad (es decir, el número de colisiones realizadas por segundo), son los parámetros que explican el significativo aumento en el volumen de datos físicos generados y archivados.

cern
Cory Doctorow (Flickr)

Con el fin de soportar tal cantidad de información almacenada, el CERN tuvo que actualizar la infraestructura computacional y, en particular, los sistemas que registran los datos obtenidos en las colisiones. Estas mejoras permitieron a la institución lidiar con los 73 petabytes de datos recibidos durante 2016, de los que 49 petabytes (algo más de un 67% de la información) procedía del LHC, y del flujo de información obtenida en lo que va de año. Los datos físicos que se guardan de forma permanente son almacenados en cinta, a través del sistema CASTOR (CERN Advanced STORage system), que ha logrado superar el récord histórico de 200 petabytes guardados de manera estable. El resto de información se registra de forma temporal para que los usuarios puedan acceder a ella, aunque se va eliminando de forma periódica.

La otra gran consecuencia de este incremento en el volumen de datos generados en los experimentos es la mayor demanda de transferencia de datos. Desde el pasado mes de febrero, el CERN cuenta con una tercera red de fibra óptica mucho más potente (100 Gbps), que conecta el Centro de Datos con una extensión remota situada a más de 1.800 kilómetros, en el Centro Wigner de Investigación en Física (Hungría). Este incremento en el ancho de banda mejorará la transferencia de la información obtenida y almacenada físicamente en el laboratorio de física de partículas, cuyas capacidades de computación son una necesidad obligada ante los desafíos científicos que afronta a diario.