Pular para o conteúdo

Não, o Facebook não se apavorou e desativou IA que estava ficando perigosamente inteligente

Por Tom McKay
Publicado no Gizmodo

Nas últimas semanas, uma história sobre pesquisas experimentais de aprendizagem de máquina do Facebook vem circulando cada vez com mais pânico com manchetes estilo Skynet.

“Os engenheiros do Facebook estão em pânico e puxam o plug de uma IA (Inteligência Artificial) depois que os robôs desenvolvem seu próprio idioma”, escreveu um site. “O Facebook desativa IA depois que ele inventa sua própria linguagem assustadora”, acrescentou outro. “Nós, humanos, criamos Frankenstein?”, perguntou mais um. Um tabloide britânico citou um professor de robótica dizendo que o incidente mostrou “os perigos de aceitar a inteligência artificial” e “poderia ser letal” se tecnologia similar fosse injetada em robôs militares.

Foram abundantes as referências à iminente revolução do robôs, droides assassinos, IAs maliciosas e extermínio humano, alguns mais graves do que outros. Um caso bastante citado foi de dois bots de bate-papo do Facebook aprenderam a conversar um com o outro de uma maneira que é reconhecidamente bastante assustadora.

Bob: eu posso eu, tudo o resto

Alice: bolas têm zero para mim comigo para mim comigo comigo para mim para mim

Bob: você, eu, o resto

Alice: bolas têm uma bola para mim para mim comigo para mim para mim comigo para mim

A realidade é um pouco mais prosaica. Algumas semanas atrás, o FastCo Design informou sobre o esforço do Facebook para desenvolver uma “rede contraditória generativa” com o objetivo de desenvolver software de negociação.

Os dois bots citados na passagem acima foram projetados, conforme explicado em uma postagem no blog da unidade de Inteligência Artificial do Facebook em junho, com a finalidade de mostrar que é “possível para agentes de diálogo com diferentes objetivos (implementados como redes neurais treinadas de ponta a ponta) para se envolver em negociações do início ao fim com outros bots ou pessoas enquanto chegam a decisões ou resultados em comum”.

The negotiation system’s GUI. Gif Credit: Facebook AI Research.

Os bots nunca fizeram nada mais nefasto do que discutir uns com os outros como dividir uma série de itens fornecidos (representados na interface do usuário como objetos inócuos, como livros, chapéus e bolas) em uma divisão mutuamente aceitável.

A intenção era desenvolver um chatbot que pudesse aprender com a interação humana para negociar acordos com o usuário final de forma tão fluente que o usuário não perceberia que eles estão falando com um robô, que FAIR (Facebook AI Research) disse ter sido um sucesso:

“O desempenho do melhor agente de negociação de FAIR, que faz uso de aprendizagem por reforço e projeção de diálogo, correspondeu aos negociadores humanos (…) demonstrando que os bots da FAIR não só podem falar inglês, mas também pensar com inteligência sobre o que dizer”.

Como a FastCo informou, quando o Facebook dirigiu dois desses robôs semi-inteligentes para conversar um com o outro, os programadores perceberam que cometiam um erro ao não incentivar os chatbots a se comunicar de acordo com as regras humanas compreensíveis da língua inglesa. Em suas tentativas de aprender um do outro, os bots começaram a conversar de um lado para o outro em uma taquigrafia derivada — mas, embora possa parecer assustador, não passava disso.

“Os agentes perderão a linguagem compreensível e inventarão palavras-chave para si”, disse  Dhruv Batra, pesquisadora visitante da FAIR. “Como se eu dissesse ‘o item’ cinco vezes, você interpreta que isso significa que eu quero cinco cópias deste item. Isso não é tão diferente da forma como as comunidades de seres humanos criam abreviações/dialetos”.

O Facebook realmente encerrou a conversa, mas não porque eles entraram em pânico por libertar uma potencial Skynet. O pesquisador da FAIR, Mike Lewis, disse à FastCo que eles simplesmente decidiram que “nosso interesse era ter bots que podiam falar com as pessoas”, e não falar eficientemente uns com os outros, e assim optou por exigir que eles escrevessem mutuamente de forma legível [aos humanos].

Mas em um jogo de telefone sem fio, não tão diferente do que os bots de bate-papo estavam fazendo, essa história evoluiu a partir de uma visão mensurada sobre as potenciais implicações a curto prazo da tecnologia de aprendizado de máquinas, para um obscuro início de um apocalipse.

Provavelmente há boas razões para não permitir que máquinas inteligentes desenvolvam seu próprio idioma, pois os seres humanos não poderiam entender de forma significativa — mas, novamente, este é um fenômeno relativamente mundano que surge quando você toma dois dispositivos de aprendizado de máquina e deixa-os aprender uns com os outros. Vale ressaltar que quando a taquigrafia do bot é explicada, a conversa resultante foi compreensível e não tão assustadora como fizeram parecer.

Como FastCo observou, é possível que este tipo de aprendizagem de máquinas possa permitir que dispositivos ou sistemas inteligentes se comuniquem uns com os outros de forma mais eficiente. Esses ganhos podem vir com alguns problemas: imagine o quão difícil pode ser a depuração de um sistema que der certo, mas é bem diferente de desencadear a perda do controle humano sobre a inteligência da máquina.

Neste caso, a única coisa que os chatbots eram capazes encontrar uma maneira mais eficiente de trocar suas respectivas bolas de basquete em uma negociação.

Existem bons usos da tecnologia de aprendizado de máquinas, como diagnósticos médicos aprimorados e outros potencialmente ruins, como o software de predição de manifestações que a polícia poderia usar para justificar a repressão a protestos. Todos eles são essencialmente formas de compilar e analisar grandes quantidades de dados, e até agora os riscos têm principalmente a ver com a forma como os seres humanos escolhem distribuir e exercer esse poder.

Nos resta esperar que os humanos também sejam inteligentes o suficiente para não conectar programas experimentais de aprendizagem de máquinas em algo muito perigoso, como um exército de androides laser ou um reator nuclear. Mas se alguém fizer e um desastre se desenrolar, seria o resultado da negligência e estupidez humana, não porque os robôs terão uma revelação filosófica sobre o quanto os humanos são ruins.

Pelo menos ainda não. A aprendizagem da máquina está longe de ser uma super IA generalista, é apenas a tentativa inicial da humanidade com a tecnologia. Se tem alguém que deveria entrar em pânico sobre esta notícia em 2017, seriam os negociadores profissionais, já que poderão perder seus empregos.

Leia também: Como inteligência artificial está realmente sendo aplicada?

 

Euclécio J. R.

Euclécio J. R.

Engenheiro de software na Codenation