Pular para o conteúdo

Processamento de Dados do LHC

O Large Hadron Collider (LHC) produz milhões de colisões por segundo em cada detector, gerando aproximadamente um petabyte de dados por segundo. Nenhum dos sistemas de computação de hoje são capazes de gravar tais taxas, então sistemas de seleção sofisticados são usados para uma primeira e rápida pré-seleção eletrônica, apenas passando um de cada 10.000 eventos. Em seguida, dezenas de milhares de núcleos de processamento selecionam 1% dos eventos restantes para análise.

Mesmo após a redução drástica de dados, os quatro grandes experimentos, ALICE, ATLAS, CMS e LHCb, juntos precisam armazenar mais de 25 petabytes por ano. Os dados do LHC são agregados no Centro de Dados do CERN, onde a reconstrução dos dados é realizada, e uma cópia é arquivada em fitas de armazenamento de longo prazo. Outra cópia é enviada para vários grandes centros de dados ao redor do mundo. Posteriormente, centenas de milhares de computadores em vários lugares do mundo entram em ação: ligados a um serviço de computação distribuída, formam a Grade de Computação Mundial para o LHC (WLCG  – Worldwide LHC Computing Grid), que fornece os recursos para armazenar, distribuir, e processar os dados do LHC. O WLCG combina o poder de mais de 170 centros colaboradores em 36 países ao redor do mundo, que estão ligados ao CERN. A cada dia o WLCG processa mais de 1,5 milhão de “tarefas”, o que corresponderia a um único computador trabalhando por mais de 600 anos.

Fonte: CERN

Alberto Albuquerque

Alberto Albuquerque

Sou graduando em física pela Universidade Federal da Paraíba (UFPB). Cursei 2 anos de Engenharia Mecânica pela mesma instituição. Sou cético, agnóstico e entusiasta em física.