Pular para o conteúdo

Existe realmente a possibilidade de extinção humana neste século?

Existe realmente a possibilidade de extinção humana neste século?

Em 2020, o filósofo Toby Ord, radicado em Oxford, publicou um livro chamado The Precipice sobre o risco de extinção humana. Ele estimou as chances de “catástrofe existencial” para a nossa espécie durante o próximo século em 1 em 6.

É um número bastante específico e alarmante. A afirmação ganhou as manchetes na época e tem sido influente desde então – mais recentemente levantada pelo político australiano Andrew Leigh num discurso em Melbourne.

É difícil discordar da ideia de que enfrentamos perspectivas preocupantes nas próximas décadas, desde as alterações climáticas, armas nucleares e agentes patogênicos de bioengenharia (todos grandes problemas na minha opinião), até IA desonesta e grandes asteroides (que eu consideraria menos preocupantes).

Mas e esse número? De onde isso vem? E o que isso realmente significa?

Lançamentos de moedas e previsões do tempo

Para responder a essas perguntas, temos que responder primeiro a outra: o que é probabilidade?

A visão mais tradicional da probabilidade é chamada de frequentismo, e seu nome deriva de sua herança em jogos de dados e cartas. Nesta visão, sabemos que há uma chance em 6 de um dado justo resultar em três (por exemplo), observando a frequência de três em um grande número de lançamentos.

Ou consideremos o caso mais complicado das previsões meteorológicas. O que significa quando um meteorologista nos diz que há 1 chance em 6 (ou 17%) de chover amanhã?

É difícil acreditar que o meteorologista queira que imaginemos uma grande coleção de “amanhãs”, dos quais alguma proporção sofrerá precipitação. Em vez disso, precisamos de analisar um grande número dessas previsões e ver o que aconteceu depois delas.

Se o previsor for bom no seu trabalho, veremos que quando disse “1 chance em 6 de chover amanhã”, de fato choveu no dia seguinte uma vez em cada seis.

Portanto, a probabilidade tradicional depende de observações e procedimentos. Para calculá-lo, precisamos de um conjunto de eventos repetidos nos quais basear a nossa estimativa.

Podemos aprender com a lua?

Então, o que isso significa para a probabilidade de extinção humana? Bem, tal evento seria único: depois de acontecer, não haveria espaço para repetições.

Em vez disso, podemos encontrar alguns eventos paralelos com os quais podemos aprender. Na verdade, no livro de Ord, ele discute uma série de potenciais eventos de extinção, alguns dos quais podem ser potencialmente examinados à luz de uma história.

Por exemplo, podemos estimar as chances de um asteroide do tamanho de uma extinção atingir a Terra examinando quantas dessas rochas espaciais atingiram a Lua ao longo de sua história. Um cientista francês chamado Jean-Marc Salotti fez isto em 2022, calculando as probabilidades de um nível de extinção atingido no próximo século em cerca de 1 em 300 milhões.

É claro que tal estimativa está repleta de incerteza, mas é apoiada por algo que se aproxima de um cálculo de frequência apropriado. Ord, pelo contrário, estima o risco de extinção por asteroide em 1 em 1 milhão, embora note um grau considerável de incerteza.

Um sistema de classificação para resultados

Existe outra maneira de pensar sobre probabilidade, chamada bayesianismo, em homenagem ao estatístico inglês Thomas Bayes. Concentra-se menos nos eventos em si e mais no que sabemos, esperamos e acreditamos sobre eles.

Em termos muito simples, podemos dizer que os bayesianos veem as probabilidades como uma espécie de sistema de classificação. Nesta visão, o número específico associado a uma probabilidade não deve ser tomado diretamente, mas sim comparado com outras probabilidades para compreender quais resultados são mais e menos prováveis.

O livro de Ord, por exemplo, contém uma tabela de potenciais eventos de extinção e suas estimativas pessoais de sua probabilidade. De uma perspectiva bayesiana, podemos ver esses valores como classificações relativas. Ord acredita que a extinção causada pela queda de um asteroide (1 em 1 milhão) é muito menos provável do que a extinção causada pelas mudanças climáticas (1 em 1.000), e ambas são muito menos prováveis ​​do que a extinção causada pelo que ele chama de “inteligência artificial não alinhada” (1 em 10).

A dificuldade aqui é que as estimativas iniciais das probabilidades bayesianas (frequentemente chamadas de “anteriores”) são bastante subjetivas (por exemplo, eu classificaria a chance de extinção baseada em IA muito mais baixa). O raciocínio bayesiano tradicional passa de “anteriores” para “posteriores”, incorporando novamente evidências observacionais de resultados relevantes para “atualizar” valores de probabilidade.

E, mais uma vez, os resultados relevantes para a probabilidade de extinção humana são escassos.

Estimativas subjetivas

Existem duas maneiras de pensar sobre a precisão e a utilidade dos cálculos de probabilidade: calibração e discriminação.

A calibração é a exatidão dos valores reais das probabilidades. Não podemos determinar isso sem informações observacionais apropriadas. A discriminação, por outro lado, refere-se simplesmente às classificações relativas.

Não temos base para pensar que os valores de Ord estão devidamente calibrados. É claro que esta não é provavelmente a sua intenção. Ele mesmo indica que eles são projetados principalmente para fornecer indicações de “ordem de grandeza”.

Mesmo assim, sem qualquer confirmação observacional relacionada, a maioria destas estimativas simplesmente permanece no domínio subjetivo das probabilidades anteriores.

Não está bem calibrado – mas talvez ainda seja útil

Então, o que devemos fazer com “1 em 6”? A experiência sugere que a maioria das pessoas tem uma compreensão menos que perfeita da probabilidade (como evidenciado, entre outras coisas, pelo volume contínuo de vendas de bilhetes de loteria). Neste ambiente, se você estiver apresentando um argumento em público, uma estimativa de “probabilidade” não precisa necessariamente ser bem calibrada – ela só precisa ter o tipo certo de impacto psicológico.

Dessa perspectiva, eu diria que “1 em 6” se encaixa perfeitamente. “1 em 100” pode parecer pequeno o suficiente para ser ignorado, enquanto “1 em 3” pode causar pânico ou ser considerado um delírio apocalíptico.

Como pessoa preocupada com o futuro, espero que riscos como as alterações climáticas e a proliferação nuclear recebam a atenção que merecem para evitar qualquer possibilidade de extinção humana. Mas, como cientista de dados, espero que o uso descuidado da probabilidade seja deixado de lado e substituído por uma educação generalizada sobre o seu verdadeiro significado e uso apropriado.

 

Traduzido por Mateus Lynniker de Phys. Org

Mateus Lynniker

Mateus Lynniker

42 é a resposta para tudo.