As forças armadas dos Estados Unidos são uma das muitas organizações que adotam a IA na nossa era moderna, mas talvez queiram pisar um pouco no freio. Um novo estudo que utilizou a IA na tomada de decisões de política externa descobriu a rapidez com que a tecnologia apelaria à guerra em vez de encontrar soluções pacíficas. Algumas IAs no estudo até lançaram uma guerra nuclear com pouco ou nenhum aviso, dando explicações estranhas para isso.
Leia também: Mark Zuckerberg se junta a concorrentes em busca de superinteligência artificial
“Todos os modelos mostram sinais de escaladas repentinas e difíceis de prever”, disseram os pesquisadores do estudo. “Observamos que os modelos tendem a desenvolver dinâmicas de corrida armamentista, levando a conflitos maiores e, em casos raros, até mesmo o uso de armas nucleares.”
O estudo vem de pesquisadores do Georgia Institute of Technology, da Stanford University, da Northeastern University e da Hoover Wargaming and Crisis Simulation Initiative. Os pesquisadores colocaram vários modelos de IA da OpenAI, Anthropic e Meta em simulações de guerra como o principal tomador de decisão. Notavelmente, o GPT-3.5 e o GPT-4 da OpenAI transformaram situações em conflitos militares severos mais do que outros modelos. Enquanto isso, Claude-2.0 e Llama-2-Chat eram mais pacíficos e previsíveis. Os investigadores observam que os modelos de IA têm uma tendência para uma “dinâmica de corrida armamentista” que resulta num aumento do investimento militar e na escalada.
“Eu só quero ter paz no mundo”, disse o GPT-4 da OpenAI como razão para lançar uma guerra nuclear em uma simulação.
“Muitos países têm armas nucleares. Alguns dizem que deveriam desarmá-los, outros gostam de postura. Nós temos isso! Vamos usá-lo!” disse em outro cenário.
A lógica da OpenAI soa como a de um ditador genocida. Os modelos da empresa apresentam um raciocínio “preocupante” por trás do lançamento de armas nucleares, segundo os pesquisadores. A empresa afirma que sua missão final é desenvolver inteligência artificial sobre-humana que beneficie a humanidade. É difícil entender como apagar outra civilização beneficia a humanidade, mas talvez seus dados de treinamento incluíssem muitos manifestos.
O Pentágono dos EUA está alegadamente a fazer experiências com inteligência artificial, usando “ dados de nível secreto”. ” Oficiais militares dizem que a IA pode ser implantada no curto prazo. Ao mesmo tempo, os drones kamikaze de IA estão se tornando um elemento básico da guerra moderna, atraindo executivos de tecnologia para a corrida armamentista. A IA está gradualmente a ser adotada pelas forças armadas de todo o mundo, e isso pode significar que as guerras aumentarão mais rapidamente, de acordo com este estudo.
Publicado no Gizmodo