Pular para o conteúdo

O crescimento exponencial da IA está começando a desacelerar?

OpenAI Sam Altman, IA e chatbots podem ter chegado num limite.

Uma crença crescente no Vale do Silício pode ter imensas implicações: os avanços dos grandes modelos de IA — aqueles esperados para trazer inteligência artificial em nível humano no futuro próximo — podem estar desacelerando. Desde o lançamento frenético do ChatGPT há dois anos, os entusiastas da IA acreditavam que as melhorias na IA generativa acelerariam exponencialmente à medida que os gigantes da tecnologia continuassem a alimentar o fogo com dados para treinamento e poder de computação.

A lógica era que cumprir a promessa da tecnologia era apenas uma questão de recursos—bastar fornecer poder computacional e dados suficientes, e a inteligência artificial geral (AGI) emergiria, capaz de igualar ou superar o desempenho humano. O progresso avançava tão rapidamente que figuras importantes da indústria, incluindo Elon Musk, pediram uma moratória na pesquisa de IA. No entanto, as principais empresas de tecnologia, incluindo a própria empresa de Musk, avançaram, gastando dezenas de bilhões de dólares para evitar ficar para trás. A OpenAI, criadora do ChatGPT, recentemente arrecadou US$ 6,6 bilhões para financiar novos avanços. A xAI, empresa de IA de Musk, está levantando US$ 6 bilhões, segundo a CNBC, para comprar 100.000 chips Nvidia, os componentes eletrônicos de ponta que alimentam os grandes modelos.

No entanto, parece haver problemas no caminho para a AGI. Insiders da indústria estão começando a reconhecer que os grandes modelos de linguagem (LLMs) não estão escalando indefinidamente a uma velocidade vertiginosa quando alimentados com mais poder e dados. Apesar dos investimentos maciços, as melhorias de desempenho estão mostrando sinais de estagnação. Valorações altíssimas de empresas como OpenAI e Microsoft são amplamente baseadas na noção de que LLMs se tornarão inteligência artificial geral com potencial de escala exponencial.

Um desafio fundamental é a quantidade finita de dados baseados em linguagem disponíveis para o treinamento de IA. Confiar apenas em dados de linguagem para a escalação está destinado a encontrar um obstáculo, segundo especialistas. O setor de IA contesta essas interpretações, mantendo que o progresso em direção à IA em nível humano é imprevisível. “Não há parede”, postou o CEO da OpenAI, Sam Altman, sem elaborar. Dario Amodei, CEO da Anthropic, cuja empresa desenvolve o chatbot Claude em parceria com a Amazon, também continua otimista.

Mesmo assim, a OpenAI adiou o lançamento do esperado sucessor do GPT-4, o modelo que alimenta o ChatGPT, porque o aumento de capacidade está abaixo das expectativas, segundo fontes. Agora, a empresa está focando em usar suas capacidades existentes de forma mais eficiente. Essa mudança de estratégia está refletida em seu modelo recente, o o1, projetado para fornecer respostas mais precisas por meio de um raciocínio aprimorado, em vez de dados de treinamento aumentados. Se essa estratégia será eficiente, apenas o tempo dirá.

Brendon Gonçalves

Brendon Gonçalves

Sou um nerd racionalista, e portanto, bastante curioso com o que a Ciência e a Filosofia nos ensinam sobre o Universo Natural... Como um autodidata e livre pensador responsável, busco sempre as melhores fontes de conhecimento, o ceticismo científico é meu guia em questões epistemológicas... Entusiasta da tecnologia e apreciador do gênero sci-fi na arte, considero que até mesmo as obras de ficção podem ser enriquecidas através das premissas e conhecimentos filosóficos, científicos e técnicos diversos... Vida Longa e Próspera!