Uma crença crescente no Vale do Silício pode ter imensas implicações: os avanços dos grandes modelos de IA — aqueles esperados para trazer inteligência artificial em nível humano no futuro próximo — podem estar desacelerando. Desde o lançamento frenético do ChatGPT há dois anos, os entusiastas da IA acreditavam que as melhorias na IA generativa acelerariam exponencialmente à medida que os gigantes da tecnologia continuassem a alimentar o fogo com dados para treinamento e poder de computação.
A lógica era que cumprir a promessa da tecnologia era apenas uma questão de recursos—bastar fornecer poder computacional e dados suficientes, e a inteligência artificial geral (AGI) emergiria, capaz de igualar ou superar o desempenho humano. O progresso avançava tão rapidamente que figuras importantes da indústria, incluindo Elon Musk, pediram uma moratória na pesquisa de IA. No entanto, as principais empresas de tecnologia, incluindo a própria empresa de Musk, avançaram, gastando dezenas de bilhões de dólares para evitar ficar para trás. A OpenAI, criadora do ChatGPT, recentemente arrecadou US$ 6,6 bilhões para financiar novos avanços. A xAI, empresa de IA de Musk, está levantando US$ 6 bilhões, segundo a CNBC, para comprar 100.000 chips Nvidia, os componentes eletrônicos de ponta que alimentam os grandes modelos.
No entanto, parece haver problemas no caminho para a AGI. Insiders da indústria estão começando a reconhecer que os grandes modelos de linguagem (LLMs) não estão escalando indefinidamente a uma velocidade vertiginosa quando alimentados com mais poder e dados. Apesar dos investimentos maciços, as melhorias de desempenho estão mostrando sinais de estagnação. Valorações altíssimas de empresas como OpenAI e Microsoft são amplamente baseadas na noção de que LLMs se tornarão inteligência artificial geral com potencial de escala exponencial.
Um desafio fundamental é a quantidade finita de dados baseados em linguagem disponíveis para o treinamento de IA. Confiar apenas em dados de linguagem para a escalação está destinado a encontrar um obstáculo, segundo especialistas. O setor de IA contesta essas interpretações, mantendo que o progresso em direção à IA em nível humano é imprevisível. “Não há parede”, postou o CEO da OpenAI, Sam Altman, sem elaborar. Dario Amodei, CEO da Anthropic, cuja empresa desenvolve o chatbot Claude em parceria com a Amazon, também continua otimista.
Mesmo assim, a OpenAI adiou o lançamento do esperado sucessor do GPT-4, o modelo que alimenta o ChatGPT, porque o aumento de capacidade está abaixo das expectativas, segundo fontes. Agora, a empresa está focando em usar suas capacidades existentes de forma mais eficiente. Essa mudança de estratégia está refletida em seu modelo recente, o o1, projetado para fornecer respostas mais precisas por meio de um raciocínio aprimorado, em vez de dados de treinamento aumentados. Se essa estratégia será eficiente, apenas o tempo dirá.