Por Marcelo Gleiser
Publicado na National Public Radio
Recentemente, comecei a ler Superinteligência, um novo livro do filósofo da Universidade de Oxford, Nick Bostrom, que também é diretor do Instituto do Futuro da Humanidade. (Esse sim é um título de trabalho muito legal.)
Bostrom é conhecido por seu famoso argumento de que há uma chance real de que vivemos em uma simulação, ou, ainda mais dramaticamente, que somos uma simulação de computador. Da mesma forma que hoje jogamos videogames com personagens que se assemelham progressivamente a pessoas reais, é possível imaginar um futuro em que os computadores sejam tão sofisticados que as simulações (os “jogos”) sejam essencialmente indistinguíveis da realidade. Sendo assim, pergunta Bostrom, como sabemos que não estamos numa simulação desenvolvida por alienígenas ou numa simulação que nossos próprios descendentes criaram?
Essa é a ideia principal em alguns filmes de ficção científica, sendo o mais famoso Matrix, com Keanu Reeves como Neo, o redentor de nossa escravidão. A ideia explora o fato de que nossos cérebros coletam informações da realidade através de nossos órgãos sensoriais; se passarmos por eles, alimentando informações direto para as partes relevantes do cérebro, podemos enganá-lo para pensar que ele vive em um mundo fabricado. O virtual seria o real.
Em Superinteligência, que vou analisar em mais detalhes em breve, Bostrom explora um cenário diferente, mas não menos perturbador. Se somos capazes de criar máquinas superinteligentes em um futuro não tão distante, como podemos ter certeza de que elas também não serão nossa destruição?
Bostrom dá dois exemplos logo no início do livro. Ele fala sobre o nosso relacionamento com os gorilas, como a sobrevivência deles depende da nossa boa vontade. Sabemos que existe uma grande tensão entre a caça clandestina e a matança desses animais maravilhosos, e os esforços para preservá-los. Igualmente, nós vamos nos tornar os gorilas do futuro e nosso destino dependerá da boa vontade das novas máquinas?
Em outro exemplo, Bostrom conta a fábula dos pardais que, cansados de terem que fazer ninhos e caçar comida, decidiram encontrar uma coruja para cuidar de suas necessidades. Ela também podia protegê-los contra os predadores, como o gato do vizinho. Embora a maioria achasse a ideia brilhante, uma minoria se opôs, levantando o fato óbvio de que eles não tinham ideia de como domesticar uma coruja. Como eles poderiam aprender a fazer isso sem ter uma a mão? A fábula termina com um grupo de pardais saindo pelo mundo para procurar um ovo de coruja: Não existe um final de verdade.
Da mesma forma, nossa fábula com as máquinas de inteligência artificial não tem também um fim de verdade. A questão crucial é como vamos decidir como ela acabará.