Por Mark Bishop
Publicado na New Scientist
Não é sempre que você é obrigado a concordar com um gênio muito amado, mas em sua previsão alarmante sobre a inteligência artificial e o futuro da humanidade, acredito que o Stephen Hawking errou. Para ser mais preciso, e de acordo com a física – em uma comparação com o gato de Schrödinger – ele está ao mesmo tempo certo e errado.
Perguntado sobre o quão longe os engenheiros já tinham chegado para a criação de inteligência artificial, Hawking respondeu: “uma vez que os seres humanos desenvolverem a inteligência artificial, ela irá evoluir por conta própria e redesenhar-se a um ritmo cada vez mais acelerado, ao contrário dos seres humanos, que são limitados pela lenta evolução biológica, assim, eles não iriam poder competir e seriam substituídos.”
Em minha opinião, ele está errado, porque há fortes razões para acreditar que os computadores nunca vão conseguir replicar todas as faculdades cognitivas humanas. Mas ele também está certo, porque essas máquinas realmente poderiam representar uma ameaça para o futuro da humanidade – como armas autônomas, por exemplo.
Tais previsões não são novas; meu ex-chefe da Universidade de Reading, professor de cibernética Kevin Warwick, levantou essa questão em seu livro March of the Machines, publicado em 1997.
Ele observou que já tinham sido criados robôs com o mesmo poder cerebral de um inseto. Em breve, ele previu, que haverá robôs com o poder do cérebro de um gato, rapidamente seguido por máquinas tão inteligentes como os seres humanos, que iriam usurpar e subjugar-nos.
Problema triplo
Este baseia-se na ideologia de que todos os aspectos da mentalidade humana eventualmente irão ser realizados por um programa executável num computador adequado – chamado de strong AI. É claro que, se isso for possível, um efeito de aceleração acabaria desencadeando um aceleramento no progresso tecnológico – causados pelo uso de sistemas de inteligência artificial para projetar cada vez mais sofisticadas inteligências artificiais e a lei de Moore, que afirma que o poder computacional bruto dobra a cada dois anos.
Acredito que três problemas fundamentais explicam o motivo do módulo computacional da inteligência artificial ser totalmente incapaz de replicar a mentalidade humana e sua electro-química e, por isso, tenderá ao erro.
Em primeiro lugar, os computadores não possuem um entendimento genuíno. O Argumento do Quarto Chinês é um famoso experimento de pensamento do filósofo norte-americano John Searle, que mostra como um programa de computador pode aparecer para compreender histórias chinesas (respondendo as perguntas de forma apropriada), sem realmente entender coisa alguma da interação.
Em segundo lugar, os computadores não têm consciência. Um argumento que pode ser feito, que eu chamo de Dançando com Pixies, diz que se um robô experimenta uma sensação consciente de interação com o mundo, uma infinidade de consciências podem estar em todos os lugares: na xícara de chá que eu estou bebendo, no assento que estou sentado. Se rejeitarmos este estado mais amplo – conhecido como panpsiquismo – devemos rejeitar também a consciência da máquina.
Por último, os computadores não têm intuição matemática. Em seu livro The Emperor’s New Mind, o físico-matemático Roger Penrose argumentou que a forma como os matemáticos fornecem muitas das “manifestações inatacáveis” para verificar suas afirmações matemáticas é fundamentalmente não-algorítmica e não-computacional.
OK, sem computador
Tomados em conjunto, estes três argumentos fatalmente minam a noção de que a mente humana pode ser completamente realizada por meros cálculos. Se estiver correto, isso implicará na ideia de que alguns aspectos mais amplos da mentalidade humana tenderão a iludir futuros sistemas de inteligência artificial.
Em vez de falar sobre as visões Hollywoodianas de governantes robôs, seria melhor se concentrar sobre as preocupações demasiadamente reais em torno de uma aplicação crescente da inteligência artificial já existente – sistemas autônomos de armas.
Em meu papel como um especialista de inteligência artificial na International Committee for Robot Arms Control, estou particularmente preocupado com a potencial implantação de sistemas de armas robóticas que podem se envolver militarmente sem intervenção humana. Principalmente, porque a inteligência artificial atual não é semelhante à inteligência humana, e os sistemas autônomos têm potencial para causar desastres catastróficos quando colocados uns contra os outros.
Em outras palavras, é possível concordar com a ideia de que a inteligência artificial pode representar uma ameaça existencial para a humanidade, mas sem precisar imaginar que ela será muito mais inteligente do que nós.