Pular para o conteúdo

A avançada inteligência artificial GPT-4 está entre nós: o que os cientistas pensam

Traduzido por Julio Batista
Original de Katharine Sanderson para a Nature

A empresa de inteligência artificial OpenAI revelou esta semana o GPT-4, a mais recente encarnação do grande modelo de linguagem que alimenta seu popular chatbot ChatGPT. A empresa diz que o GPT-4 contém grandes melhorias – ele já surpreendeu as pessoas com sua capacidade de criar textos semelhantes aos escritos por humanos e gerar imagens e código de computador a partir de quase qualquer prompt. Os pesquisadores dizem que essas habilidades têm o potencial de transformar a ciência – mas alguns estão frustrados por ainda não poderem acessar a tecnologia, seu código subjacente ou informações sobre como ela foi treinada. Isso aumenta a preocupação com a segurança da tecnologia e a torna menos útil para a pesquisa, disseram os cientistas.

Uma atualização para o GPT-4, lançado em 14 de março, é que agora ele pode lidar com imagens e também com texto. E como demonstração de suas proezas linguísticas, a OpenAI, com sede em São Francisco, Califórnia, EUA, disse que passou no exame jurídico da ordem dos EUA com resultados no nonagésimo percentil, em comparação com o décimo percentil da versão anterior do ChatGPT. Mas a tecnologia ainda não é amplamente acessível – apenas para assinantes pagos do ChatGPT até agora têm acesso.

“Há uma lista de espera no momento, então você não pode usá-la agora”, disse Evi-Anne van Dis, psicóloga da Universidade de Amsterdã. Mas ela viu demos do GPT-4. “Assistimos a alguns vídeos em que eles demonstraram capacidades e é surreal”, disse ela. Um exemplo, ela relatou, foi um rabisco desenhado à mão de um site, que o GPT-4 usou para produzir o código de computador necessário para construir esse site, como uma demonstração da capacidade de lidar com imagens como entradas.

Mas há frustração na comunidade científica sobre o sigilo do OpenAI sobre como e quais dados o modelo foi treinado e como ele realmente funciona. “Todos esses modelos de código fechado são essencialmente becos sem saída na ciência”, disse Sasha Luccioni, cientista pesquisadora especializada em clima da HuggingFace, uma comunidade de IA de código aberto. “Eles [da OpenAI] podem continuar desenvolvendo suas pesquisas, mas para a comunidade em geral, é um beco sem saída.”

Teste do ‘red team’

Andrew White, engenheiro químico da Universidade de Rochester, teve acesso privilegiado ao GPT-4 como um ‘red-teamer’: uma pessoa paga pela OpenAI para testar a plataforma a fim de tentar de preudicá-la. Ele teve acesso ao GPT-4 nos últimos seis meses, disse ele. “No início do processo, não parecia tão diferente”, em comparação com iterações anteriores.

Ele fez perguntas ao bot sobre quais etapas de reações químicas eram necessárias para fazer um composto, prever o rendimento da reação e escolher um catalisador. “No começo, não fiquei tão impressionado”, disse White. “Foi realmente surpreendente porque pareceria tão realista, mas às vezes adicionava um átomo aleatório ou pulava uma etapa”, acrescentou. Mas quando, como parte de seu trabalho de red-team, ele deu ao GPT-4 acesso a artigos científicos, as coisas mudaram drasticamente. “Isso nos fez perceber que esses modelos talvez não sejam tão bons sozinhos. Mas quando você começa a conectá-los à Internet com ferramentas como um planejador de retrossíntese ou uma calculadora, de repente surgem novos tipos de habilidades.”

E com essas habilidades vêm as preocupações. Por exemplo, o GPT-4 poderia permitir a produção de produtos químicos perigosos? Com informações de pessoas como White, os engenheiros da OpenAI realimentaram seu modelo para desencorajar o GPT-4 de criar conteúdo perigoso, ilegal ou prejudicial, disse White.

Fatos falsos

A saída de informações falsas é outro problema. Luccioni diz que modelos como o GPT-4, que existem para prever a próxima palavra em uma frase, não podem ser totalmente remediados de inventar fatos falsos – conhecidos como alucinações. “Você não pode confiar nesses tipos de modelos porque há muita alucinação”, disse ela. E isso continua sendo uma preocupação na versão mais recente, disse ela, embora a OpenAI diga que melhorou a segurança no GPT-4.

Sem acesso aos dados usados ​​para treinamento, as garantias da OpenAI sobre segurança ficam aquém de Luccioni. “Você não sabe quais são os dados. Então você não pode melhorá-lo. Quero dizer, é completamente impossível fazer ciência com um modelo como este”, disse ela.

O mistério sobre como o GPT-4 foi treinado também preocupa a colega de van Dis em Amsterdã, a psicóloga Claudi Bockting. “É muito difícil para um ser humano ser responsável por algo que você não pode supervisionar”, disse ela. “Uma das preocupações é que eles podem ser muito mais tendenciosos do que, por exemplo, o preconceito que os seres humanos têm por si mesmos”. Sem poder acessar o código por trás do GPT-4, é impossível ver de onde o viés pode ter se originado ou remediá-lo, explicou Luccioni.

Discussões éticas

Bockting e van Dis também estão preocupados com o fato de cada vez mais esses sistemas de IA pertencerem a grandes empresas de tecnologia. Eles querem garantir que a tecnologia seja devidamente testada e verificada por cientistas. “Esta também é uma oportunidade porque a colaboração com grandes tecnologias pode, é claro, acelerar os processos”, acrescentou ela.

Van Dis, Bockting e seus colegas argumentaram no início deste ano sobre a necessidade urgente de desenvolver um conjunto de diretrizes ‘vivas’ para controlar como a IA e ferramentas como o GPT-4 são usadas e desenvolvidas. Eles estão preocupados com o fato de que qualquer legislação sobre tecnologias de IA terá dificuldades para acompanhar o ritmo de desenvolvimento. Bockting e van Dis convocaram uma cúpula para convidados na Universidade de Amsterdã em 11 de abril para discutir essas preocupações, com representantes de organizações como o comitê de ética científica da UNESCO, a Organização para Cooperação e Desenvolvimento Econômico e o Fórum Econômico Mundial.

Apesar da preocupação, o GPT-4 e suas futuras iterações vão abalar a ciência, disse White. “Acho que na verdade haverá uma grande mudança de infraestrutura na ciência, quase como a internet foi uma grande mudança”, disse ele. Isso não substituirá os cientistas, acrescentou ele, mas poderá ajudar em algumas tarefas. “Acho que vamos começar a perceber que podemos conectar papers, programas de dados, bibliotecas que usamos e trabalho computacional ou mesmo experimentos robóticos”.

Julio Batista

Julio Batista

Sou Julio Batista, de Praia Grande, São Paulo, nascido em Santos. Professor de História no Ensino Fundamental II. Auxiliar na tradução de artigos científicos para o português brasileiro e colaboro com a divulgação do site e da página no Facebook. Sou formado em História pela Universidade Católica de Santos e em roteiro especializado em Cinema, TV e WebTV e videoclipes pela TecnoPonta. Autodidata e livre pensador, amante das ciências, da filosofia e das artes.