O livro de Toby Ord de 2020 pintou um quadro sombrio das oportunidades da humanidade neste século, mas quão precisa é a sua previsão?
Em 2020, o filósofo Toby Ord, radicado em Oxford, publicou um livro chamado The Precipice sobre o risco de extinção humana. Ele estimou as chances de “catástrofe existencial” para a nossa espécie durante o próximo século em uma em seis.
É um número bastante específico e alarmante. A afirmação ganhou as manchetes na época e tem sido influente desde então - mais recentemente levantada pelo político australiano Andrew Leigh em um discurso em Melbourne.
É difícil discordar da ideia de que enfrentamos perspectivas preocupantes nas próximas décadas, desde as alterações climáticas, armas nucleares e agentes patogénicos de bioengenharia (todos grandes problemas na minha opinião), até IA e grandes asteroides (que eu consideraria menos preocupantes).
Mas e esse número? De onde isso vem? E o que isso realmente significa?
Lançamento de moedas e previsões meteorológicas
Para responder a essas perguntas, temos que responder primeiro a outra: o que é probabilidade?
A visão mais tradicional da probabilidade é chamada de frequentismo, e seu nome deriva de sua herança em jogos de dados e cartas. Nesta visão, sabemos que há uma chance em seis de um dado justo resultar em três (por exemplo), observando a frequência de três em um grande número de lançamentos.
Ou consideremos o caso mais complicado das previsões meteorológicas. O que significa quando um meteorologista nos diz que há uma chance em seis (ou 17%) de chover amanhã?
É difícil acreditar que o meteorologista queira que imaginemos uma grande coleção de “amanhãs”, dos quais alguma proporção sofrerá precipitação. Em vez disso, precisamos analisar um grande número dessas previsões e ver o que aconteceu depois delas.
Se o previsor for bom no seu trabalho, deveremos ver que quando disse "uma probabilidade em seis de chover amanhã", de fato choveu no dia seguinte uma vez em cada seis.
Portanto, a probabilidade tradicional depende de observações e procedimentos. Para calculá-lo, precisamos de um conjunto de eventos repetidos nos quais baseamos a nossa estimativa.
Podemos aprender com a Lua?
Então, o que isso significa para a probabilidade de extinção humana? Bem, tal evento seria único: depois de acontecer, não haveria espaço para repetições.
Em vez disso, podemos encontrar alguns eventos paralelos com os quais aprender. Na verdade, no livro de Ord, ele discute uma série de potenciais eventos de extinção, alguns dos quais podem ser potencialmente examinados à luz de uma história.
Por exemplo, podemos estimar as chances de um asteroide atingir a Terra e levar à extinção, examinando quantas dessas rochas espaciais atingiram a Lua ao longo de sua história. Um cientista francês chamado Jean-Marc Salotti fez isto em 2022, calculando em cerca de uma em 300 milhões as probabilidades de um nível de extinção no próximo século.
É claro que tal estimativa está repleta de incerteza, mas é apoiada por algo que se aproxima de um cálculo de frequência apropriado. Ord, pelo contrário, estima o risco de extinção por asteroide em um em um milhão, embora note um grau considerável de incerteza.
Um sistema de classificação para resultados
Existe outra maneira de pensar sobre probabilidade, chamada bayesianismo, em homenagem ao estatístico inglês Thomas Bayes. Concentra-se menos nos eventos em si e mais no que sabemos, esperamos e acreditamos sobre eles.
Em termos muito simples, podemos dizer que os bayesianos veem as probabilidades como uma espécie de sistema de classificação. Nesta visão, o número específico associado a uma probabilidade não deve ser tomado diretamente, mas sim comparado com outras probabilidades para compreender quais resultados são mais e menos prováveis.
O livro de Ord, por exemplo, contém uma tabela de potenciais eventos de extinção e suas estimativas pessoais de sua probabilidade. De uma perspectiva bayesiana, podemos ver esses valores como classificações relativas. Ord acredita que a extinção causada por um asteroide (um em um milhão) é muito menos provável do que a extinção causada pelas mudanças climáticas (uma em mil), e ambas são muito menos prováveis do que a extinção causada pelo que ele chama de "inteligência artificial não alinhada" (uma em cada dez).
A dificuldade aqui é que as estimativas iniciais das probabilidades bayesianas (frequentemente chamadas de "anteriores") são bastante subjetivas (por exemplo, eu classificaria a chance de extinção baseada em IA muito mais baixa).
E, mais uma vez, os resultados relevantes para a probabilidade de extinção humana são escassos.
Estimativas subjetivas
Existem duas maneiras de pensar sobre a precisão e a utilidade dos cálculos de probabilidade: calibração e discriminação.
A calibração é a exatidão dos valores reais das probabilidades. Não podemos determinar isso sem informações observacionais apropriadas. A discriminação, por outro lado, refere-se simplesmente às classificações relativas.
Não temos base para pensar que os valores de Ord estão devidamente calibrados. É claro que esta não é provavelmente a sua intenção. Ele mesmo indica que eles são projetados principalmente para fornecer indicações de “ordem de grandeza”.
Mesmo assim, sem qualquer confirmação observacional relacionada, a maioria destas estimativas simplesmente permanece no domínio subjetivo das probabilidades anteriores.
Não está bem calibrado – mas talvez ainda seja útil.
Então, o que devemos fazer com “um em seis”? A experiência sugere que a maioria das pessoas tem uma compreensão menos que perfeita da probabilidade (como evidenciado, entre outras coisas, pelo volume contínuo de vendas de bilhetes de loteria). Neste ambiente, se você estiver apresentando um argumento em público, uma estimativa de “probabilidade” não precisa necessariamente ser bem calibrada – ela só precisa ter o tipo certo de impacto psicológico.
Dessa perspectiva, eu diria que “um em cada seis” se encaixa perfeitamente. “Um em cada 100” pode parecer pequeno o suficiente para ser ignorado, enquanto “um em cada três” pode causar pânico ou ser considerado um delírio apocalíptico.
Como pessoa preocupada com o futuro, espero que riscos como as alterações climáticas e a proliferação nuclear recebam a atenção que merecem. Mas, como cientista de dados, espero que o uso descuidado da probabilidade seja deixado de lado e substituído por uma educação generalizada sobre o seu verdadeiro significado e uso apropriado.
Steven Stern, professor de ciência de dados, Bond University.