Pular para o conteúdo

Nem tudo que chamamos de IA é, na verdade, inteligência artificial. Eis como saber

Traduzido por Julio Batista
Original de George Siemens para a The Conversation

Em agosto de 1955, um grupo de cientistas fez um pedido de financiamento de US$ 13.500 para realizar um workshop de verão no Faculdade de Dartmouth, em New Hampshire, EUA. O campo que se propuseram a explorar foi da inteligência artificial (IA).

Embora o pedido de financiamento fosse humilde, a conjectura dos pesquisadores não era: “Cada aspecto da aprendizagem ou qualquer outra característica da inteligência pode, em princípio, ser descrito com tanta precisão que uma máquina poderia para simular”.

Desde esse princípio humilde, os filmes e a mídia romantizaram a IA ou a consideraram uma vilã. No entanto, para a maioria das pessoas, a IA permaneceu como um ponto de discussão e não como parte de uma experiência vivida conscientemente.

A IA chegou em nossas vidas

No final do mês passado, a IA, na forma de ChatGPT, libertou-se das especulações de ficção científica e dos laboratórios de pesquisa para os computadores e smartphones do público em geral.

É o que é conhecido como “IA generativa” – do nada, um prompt com palavras inteligentes poderia produzir um ensaio ou montar uma receita e lista de compras, ou criar um poema no estilo de uma canção do Elvis Presley.

Embora o ChatGPT tenha sido o participante mais dramático em um ano marcado pelo sucesso generativo da IA, sistemas semelhantes mostraram um potencial ainda maior para criar novos conteúdos, com prompts de texto para imagem usados ​​para criar imagens vibrantes que até ganharam competições de arte.

A IA pode ainda não ter uma consciência viva ou uma mente teórica popularizada em filmes e romances de ficção científica, mas está chegando perto de, pelo menos, ir além do que pensávamos que os sistemas de inteligência artificial poderiam fazer.

Os pesquisadores que trabalham em estreita colaboração com esses sistemas se debruçaram sob a perspectiva de senciência, como no caso do modelo de linguagem extensa (LLM) LaMDA do Google. Um LLM é um modelo que foi treinado para processar e gerar linguagem natural.

A IA generativa também produziu preocupações com plágio, exploração de conteúdo original usado para criar modelos, ética diante da manipulação de informações e abuso de confiança e até mesmo “o fim da programação“.

No centro de tudo isso está a questão que vem se tornando cada vez mais latente desde o workshop de verão de Dartmouth: a IA difere da inteligência humana?

O que ‘IA’ realmente significa?

Para se qualificar como IA, um sistema deve exibir algum nível de aprendizado e adaptação. Por esse motivo, sistemas de tomada de decisão, automação e estatísticas não são IA.

A IA é amplamente definida em duas categorias: inteligência artificial limitada (IAL) e inteligência artificial geral (IAG). Até o momento, IAG não existe.

O principal desafio para a criação de uma IA geral é modelar adequadamente o mundo com toda a totalidade do conhecimento, de maneira consistente e útil. Isso é um grande empreendimento, para dizer o mínimo.

A maior parte do que conhecemos hoje como IA tem inteligência limitada – onde um sistema específico aborda um problema específico. Ao contrário da inteligência humana, essa inteligência de IA limitada é eficaz apenas na área em que foi treinada: detecção de fraudes, reconhecimento facial ou recomendações sociais, por exemplo.

A IAG, no entanto, funcionaria como os humanos. Por enquanto, o exemplo mais notável de tentar conseguir isso é o uso de redes neurais e “aprendizado profundo” treinado em grandes quantidades de dados.

As redes neurais são inspiradas na maneira como o cérebro humano funciona. Ao contrário da maioria dos modelos de aprendizado de máquina que executam cálculos nos dados treinados, as redes neurais funcionam alimentando cada ponto de dados um por um por meio de uma rede interconectada, sempre ajustando os parâmetros.

À medida que mais e mais dados são alimentados pela rede, os parâmetros se estabilizam; o resultado final é a rede neural “treinada”, que pode produzir o resultado desejado em novos dados – por exemplo, reconhecer se uma imagem contém um gato ou um cachorro.

O salto significativo na IA hoje é impulsionado por melhorias tecnológicas na maneira como podemos treinar grandes redes neurais, reajustando um grande número de parâmetros em cada execução, graças aos recursos de grandes infraestruturas de computação em nuvem. Por exemplo, GPT-3 (o sistema AI que alimenta o ChatGPT) é uma grande rede neural com 175 bilhões de parâmetros.

O que a IA precisa para funcionar?

A IA precisa de três coisas para ser bem-sucedida.

Primeiro, ele precisa de dados imparciais e de alta qualidade, e muitos deles. Os pesquisadores que constroem redes neurais usam os grandes conjuntos de dados que surgiram com a digitalização da sociedade.

O Co-Pilot, um programador de pares de IA, extrai seus dados de bilhões de linhas de código compartilhadas no GitHub. O ChatGPT e outros grandes modelos de linguagem usam bilhões de sites e documentos de texto armazenados online.

As ferramentas de texto para imagem, como Stable Diffusion, DALLE-2 e Midjourney, usam pares de imagem-texto de conjuntos de dados como LAION-5B. Os modelos de IA continuarão a evoluir em sofisticação e impacto à medida que digitalizamos mais de nossas vidas e fornecemos fontes de dados alternativas, como dados simulados ou dados de configurações de jogos como o Minecraft.

A IA também precisa de infraestrutura computacional para um treinamento eficaz. À medida que os computadores se tornam mais poderosos, os modelos que agora exigem esforços intensivos e computação em larga escala podem, em um futuro próximo, ser manuseados localmente. O Stable Diffusion, por exemplo, já pode ser executado em computadores locais em vez de ambientes de nuvem.

A terceira necessidade da IA ​​são os modelos e algoritmos aprimorados. Os sistemas orientados por dados continuam a progredir rapidamente com domínio após domínio, uma vez que se pensava ser o território da cognição humana.

No entanto, como o mundo ao nosso redor muda constantemente, os sistemas de IA precisam ser constantemente retreinados usando novos dados. Sem essa etapa crucial, os sistemas de IA produzirão respostas factualmente incorretas ou não levarão em consideração novas informações que surgiram desde que foram treinados.

As redes neurais não são a única abordagem para IA. Outro campo proeminente na pesquisa de inteligência artificial é a IA simbólica – em vez de digerir enormes conjuntos de dados, ela se baseia em regras e conhecimentos semelhantes ao processo humano de formar representações simbólicas internas de fenômenos específicos.

Mas houve forte inclinação para abordagens baseadas em dados na última década, com os “pais fundadores” do aprendizado profundo moderno recentemente recebendo o Prêmio Turing, o equivalente ao Prêmio Nobel em ciência da computação.

Dados, computação e algoritmos formam a base do futuro da IA. Todos os indicadores apontam para um rápido progresso sendo feito em todas as três categorias no futuro previsível.

Julio Batista

Julio Batista

Sou Julio Batista, de Praia Grande, São Paulo, nascido em Santos. Professor de História no Ensino Fundamental II. Auxiliar na tradução de artigos científicos para o português brasileiro e colaboro com a divulgação do site e da página no Facebook. Sou formado em História pela Universidade Católica de Santos e em roteiro especializado em Cinema, TV e WebTV e videoclipes pela TecnoPonta. Autodidata e livre pensador, amante das ciências, da filosofia e das artes.