O Modelo Padrão da Física está passando por sérios problemas?

A discrepância entre a previsão teórica e o valor determinado experimentalmente do momento magnético do múon tornou-se ligeiramente mais forte com um novo resultado do Fermilab. Mas o que isso significa?

0
301
O anel de armazenamento magnético do Muón g-2, visto aqui durante sua mudança do Laboratório Nacional de Brookhaven em Long Island para o Laboratório do Acelerador Nacional Fermi ao redor de Chicago, é um componente central da busca do projeto por uma nova física. (Créditos: Alamy)

Traduzido por Julio Batista
Original de Sabine Hossenfelder para o Scientific American

A chamada anomalia do múon, vista pela primeira vez em um experimento no Laboratório Nacional de Brookhaven em 2001, não mudou. Por 20 anos, essa ligeira discrepância entre o valor calculado do momento magnético do múon e seu valor determinado experimentalmente permaneceu em uma significância de cerca de 3,7 sigma. Esse é um nível de confiança de 99,98%, ou cerca de uma chance em 4.500 de que a discrepância seja uma flutuação aleatória. Com os resultados recém-anunciados do experimento Múon g-2 no Laboratório Nacional Fermi em Batavia, Illinois (EUA), a significância aumentou para 4,2 sigma. Esse é um nível de confiança de cerca de 99,997 por cento, ou cerca de uma chance em 40.000 do desvio observado ser uma coincidência. Por si só, a nova medição do Fermilab tem significado de apenas 3,3 sigma, mas porque reproduz a descoberta anterior de Brookhaven, a significância combinada aumentou para 4,2 sigma. Ainda assim, o último fica aquém do limiar de descoberta dos cinco sigma dos físicos de partículas.

O resultado é muito esperado devido ao seu potencial para finalmente desafiar o Modelo Padrão da física de partículas, uma coleção dos constituintes fundamentais da matéria até agora conhecidos que existe há cerca de 50 anos. Este modelo atualmente contém algumas dezenas de partículas, mas a maioria delas são instáveis ​​e, portanto, não podem ser encontradas apenas olhando para a matéria que normalmente nos rodeia. As partículas instáveis ​​são, no entanto, produzidas naturalmente em eventos altamente energéticos, como quando os raios cósmicos atingem a alta atmosfera. Elas também são criadas em colisões de partículas feitas em laboratório, como visto nos experimentos do Fermilab para medir o momento magnético do múon.

O múon foi uma das primeiras partículas instáveis ​​conhecidas, com sua descoberta datando de 1936. É uma versão mais pesada do elétron e, como a última partícula, é eletricamente carregada. O múon tem uma vida útil de cerca de dois microssegundos. Para os físicos de partículas, é muito tempo, e é por isso que a partícula é útil para medições de precisão. O momento magnético do múon determina a velocidade com que o eixo de rotação da partícula orbita em torno das linhas do campo magnético. Para medi-lo no Fermilab, os físicos criam múons e os mantêm em um círculo de cerca de 15 metros de diâmetro com ímãs poderosos. Os múons eventualmente decaem e, a partir da distribuição dos produtos de decadência, pode-se inferir seu momento magnético.

O resultado é geralmente citado como “g-2”, onde “g” é o momento magnético. O “2” está incluído porque o valor está próximo de dois – e nos desvios de dois estão as contribuições quânticas nas quais os físicos estão interessados. Essas contribuições vêm de flutuações no vácuo que contêm todas as partículas, embora na forma virtual: elas aparecem apenas brevemente antes de desaparecer novamente. Isso significa que se houver mais partículas do que as do Modelo Padrão, elas devem contribuir para o múon g-2 – daí sua relevância. Um desvio da previsão do Modelo Padrão pode, portanto, significar que há mais partículas do que as que são conhecidas atualmente – ou que há alguma outra nova física, como dimensões adicionais do espaço.

Então, como devemos medir a discrepância de 4,2 sigma entre a previsão do Modelo Padrão e a nova medição? Em primeiro lugar, é útil lembrar a razão pela qual os físicos de partículas usam o padrão de cinco sigma para começo de conversa. A razão não é pela física de partículas ser de alguma forma intrinsecamente mais precisa do que outras áreas da ciência ou pelos físicos de partículas serem muito melhores em fazer experimentos. É principalmente porque os físicos de partículas têm muitos dados. E quanto mais dados você tiver, maior será a probabilidade de encontrar flutuações aleatórias que coincidentemente se parecem com um sinal. Os físicos de partículas começaram a usar comumente o critério de cinco sigma em meados da década de 1990 para se salvarem do constrangimento de ter muitas “descobertas” que mais tarde acabariam sendo meras flutuações estatísticas.

Mas é claro que cinco sigma é um recorte inteiramente arbitrário, e os físicos de partículas também discutem anomalias bem abaixo desse limite. Na verdade, algumas anomalias de três e quatro sigma surgiram e desapareceram ao longo dos anos. O bóson de Higgs, por exemplo, já foi “descoberto” em 1996, quando um sinal de cerca de quatro sigma apareceu no Grande Colisor de Elétrons e Pósitrons (LEP) no CERN perto de Genebra – e então desapareceu novamente. (O Bóson de Higgs foi detectado conclusivamente em 2012 pelo sucessor do LEP, o Grande Colisor de Hádrons, ou LHC.) Também em 1996, subestruturas de quark foram encontradas em cerca de três sigma. Elas também desapareceram.

Em 2003, sinais de supersimetria – uma extensão conjecturada do Modelo Padrão que introduz novas partículas – foram vistos no LEP, também em torno de três sigma. Mas logo eles se foram. No LHC em 2015, vimos a anomalia do difóton, que durou cerca de quatro sigma antes de desaparecer. Também houve algumas descobertas impressionantes de seis sigma que não foram confirmadas, como os “superjatos” de 1998 no Tevatron do Fermilab (mesmo hoje ninguém sabe realmente o que eram) ou o avistamento de pentaquark de 2004 no acelerador HERA na Alemanha (pentaquarks não foram conclusivamente detectados até 2015).

Este histórico deve ajudá-lo a avaliar o quão sério devemos levar qualquer afirmação da física de partículas com uma significância estatística de 4,2 sigma. Mas é claro que a anomalia g-2 tem a seu favor o fato de que seu significado se tornou mais forte em vez de mais fraco.

O que significa a persistência da anomalia? Experimentos de alta precisão em baixa energia, como este, complementam os experimentos de alta energia. Eles podem fornecer informações semelhantes porque, em princípio, todas as contribuições de altas energias também estão presentes em baixas energias. É que elas são muito pequenas – estamos falando sobre uma discrepância entre o experimento e a teoria no 11º dígito após a vírgula decimal.

Na prática, isso significa que os cálculos das previsões devem levar em conta exatamente uma série de pequenas contribuições para atingir a precisão necessária. Na física de partículas, esses cálculos são feitos usando diagramas de Feynman – pequenos gráficos com nós e conexões que denotam partículas e suas interações. Eles são uma ferramenta matemática para rastrear quais integrais devem ser calculadas.

Esses cálculos tornam-se mais complexos com maior precisão porque há mais e maiores diagramas. Para o múon g-2, os físicos tiveram que calcular mais de 15.000 diagramas. Embora os computadores ajudem muito na tarefa, esses cálculos permanecem bastante desafiadores. Uma dor de cabeça particular é a contribuição hadrônica. Hádrons são partículas compostas feitas de vários quarks mantidos juntos por glúons. Calcular essas contribuições hadrônicas para o valor de g-2 é notoriamente difícil e, atualmente, é a maior fonte de erro do lado teórico. É claro que também existem várias medições cruzadas que desempenham um papel, como as previsões que dependem dos valores de outras constantes, incluindo as massas dos léptons e constantes de acoplamento.

Assim, a discrepância pode significar bastante mundanamente que há algo errado com o cálculo do Modelo Padrão, com as contribuições hadrônicas como o principal suspeito. Mas também existe a possibilidade de que a lacuna esteja no próprio modelo padrão e não no nosso cálculo. Talvez a discrepância venha de novas partículas – partículas supersimétricas são as candidatas mais populares. O problema com essa explicação é que a supersimetria não é um modelo – em vez disso, é uma propriedade de um grande número de modelos, com modelos diferentes desse todo maior, cada um produzindo previsões diferentes. Entre outras coisas, as contribuições para og-2 dependem das massas das partículas supersimétricas hipotéticas, que são desconhecidas. Portanto, por enquanto, é impossível atribuir a discrepância à supersimetria em particular.

A nova medição de alta precisão do Fermilab do momento magnético é uma conquista experimental notável. Mas é muito cedo para declarar que o modelo padrão está ameaçado.