Pular para o conteúdo

O medo de máquinas inteligentes é justificável?

Por Marcelo Gleiser
Publicado na National Public Radio

Isso está nos noticiários em todos os lugares, com uma arrogância quase apocalíptica: a máquina do Google DeepMind venceu o campeão mundial do jogo Go com um placar de 4 a 1.

Ou, de acordo com o jornal Independent, da Grã-Bretanha: “O computador do Google que joga Go venceu definitivamente o melhor humano do mundo, terminando uma partida inovadora com 4 a 1”. O “melhor humano do mundo”, jogador profissional de Go sul-coreano, Lee Sedol, está em 5º no ranking mundial. Claramente um jogador de Go excelente — mas não o melhor do mundo.

No entanto, existem vários tipos de rankings para o Go, e eles nem sempre estão em concordância. Na verdade, há muita confusão quando você começa a olhar. O que coloca Sedol em 5º lugar é conhecido como algoritmo WHR. Mas isso são detalhes. O fato que uma máquina venceu um jogador de Go perito por 4 a 1 em um evento amplamente divulgado. Como um expert em IA (inteligência artificial), Gary Marcus, escreveu em um artigo recente: “O DeepMind deu um avanço significativo, mas a jornada Go ainda não acabou… A verdadeira pergunta é se a tecnologia desenvolvida lá pode ser tirada do mundo dos jogos e trazida para o mundo real.”

Em outras palavras, a proeza de máquinas que jogam pode ser aplicada em desafios do mundo real?

Em seu artigo na Nature de 28 da janeiro sobre a DeepMind, cientistas do Google afirmam no resumo que a máquina “venceu o humano campeão europeu de Go por 5 jogos a 0… Um feito que se pensava estar a pelo menos uma década de ser alcançado”. Este jogador profissional de Go era Fan Hui, três vezes campeão europeu, atualmente em 507ª colocação, de acordo com este ranking. Ir de Hui para Sedol é, certamente, muito expressivo.

O programa do Google DeepMind utiliza uma combinação de algoritmo aprimorado de aprendizado de máquina conhecido como “redes de valor” (“aprendizado de máquina” é a nova versão das redes neurais, programas que tentam emular atividades de neurônios capazes de aprender padrões e comportamentos), que avaliam posições no tabuleiro, e “redes de políticas”, que escolhem os movimentos. Simplificando demasiadamente, um pedaço do programa analisa possíveis movimentos, enquanto o outro escolhe o movimento ideal para uma dada situação com base em uma análise estatística das melhores possibilidades. As últimas linhas do artigo da Nature são importantes: “O AlphaGo finalmente alcançou um nível profissional de Go, Fornecendo a esperança de que o desempenho em nível humano agora pode ser alcançado em outros domínios, aparentemente complexos, de inteligência artificial”.

Para ser útil no mundo real, onde frequentemente as regras não são rígidas e eventos e comportamentos que são inesperados atrapalham continuamente os esforços para racionalizar o comportamento — seja ele humano, político ou econômico — programas inteligentes precisam de um tipo de plasticidade e capacidade de adaptação, que não são facilmente transferíveis de uma plataforma de jogos, a qual tem mais foco. Embora o sucesso do Google DeepMind leve o progresso da IA para um nível totalmente novo, o salto entre o jogo e a inteligência que espelha algo mais próximo da inteligência humana, funcionando em um mundo complexo, ainda é muito grande. Para muitos, isso é uma coisa muito boa.

O filósofo da Oxford University Nick Bostrom vem nos alertando sobre os perigos de uma superinteligência no mundo. E o bilionário Elon Musk, os físicos Stephen Hawking e Martin Rees, o próprio Bostrom — e, mais interessantemente, Demis Hassabis, Shane Legg e Mustafa Suleyman, todos os cofundadores do DeepMind — assinaram uma carta aberta na qual eles “recomendam uma investigação maior destinada a garantir que os sistemas de IA, que têm potencial cada vez maior, sejam robustos e benéficos: os nossos sistemas de IA devem fazer aquilo que nós queremos que eles façam”.

Resta saber se a ideia de Musk de capacitar o maior número de pessoas possível para ter acesso à IA funcionará como uma espécie de política de dissuasão contra a dominação da IA (algo parecido com a política de dissuasão nuclear contra a destruição global) — ou se, uma vez que máquinas inteligentes poderiam, pelo menos em princípio, criar uma rede para se tornar uma entidade autônoma, mais unificada, o pesadelo é inevitável. A IA não é uma bomba nuclear. Felizmente, mesmo com os incríveis passos do DeepMind no jogo de Go, nós ainda podemos dormir em paz no futuro previsível, enquanto encontramos defesas que irão nos proteger de nossas próprias invenções.

Marcelo Gleiser

Marcelo Gleiser

Appleton Professor of Natural Philosophy at Dartmouth College, USA. Professor of Physics and Astronomy at Dartmouth College, USA. Writer, blogger, public lecturer.