O Google acaba de lançar seu tão esperado ‘assassino’ do ChatGPT, Gemini, um chatbot de IA ultrainteligente que pode finalmente se igualar ao ChatGPT da OpenAI. As primeiras análises do chatbot do Google estão sendo implementadas lentamente e todos estão impressionados. No entanto, alguns não conseguem se livrar da sensação estranha de que Gemini tem mais fantasmas do que uma casa mal-assombrada.
“O GPT-4 está cheio de fantasmas. Gemini também está cheio de fantasmas”, disse Ethan Mollick, professor da Wharton School da Universidade da Pensilvânia, em uma postagem de blog na quinta-feira. “Há uma estranheza no GPT-4 que não é senciência, mas também não é como falar com um programa… É a ilusão de uma pessoa do outro lado da linha, mesmo que não haja ninguém lá.”
Mollick fez sua avaliação após receber um mês de acesso antecipado do Google ao modelo mais avançado do Gemini. Ele dificilmente é a primeira pessoa a concluir que um chatbot de IA pode ser senciente, ou algo próximo disso. O Google demitiu Blake Lemoine, um engenheiro que trabalhava em seu grande modelo de linguagem LaMBDA, em 2022, depois que ele alegou que a IA de sua empresa estava viva. Os cientistas foram rápidos em considerar Lemoine um louco, mas esta ideia de que chatbots poderosos são sencientes simplesmente não vai desaparecer.
Quando Mollick diz que vê um “fantasma”, ele vê a aparência de uma pessoa, na névoa nebulosa do texto do chatbot de IA. Sim, os chatbots têm toneladas de alucinações e, às vezes, frases estranhas que revelam que se trata de um robô. Mas através disso, você pode reconhecer vagamente as características humanas. Às vezes, você sai de uma conversa com o ChatGPT com a sensação de ter acabado de falar com alguém. Mas é só você e o software; é como um fantasma.
Mollick observa que o Gemini tem uma “personalidade” diferente do ChatGPT. Gemini parece ser mais amigável, mais agradável e usa mais jogos de palavras. Ele não está sozinho nesta avaliação de que diferentes chatbots têm tons e personalidades específicas.
As empresas de detecção de IA usam cadência e tom para identificar quais chatbots de IA as pessoas estão usando. Foi assim que Pindrop conseguiu identificar o ElevenLabs como a IA por trás das chamadas automáticas falsas de New Hampshire, imitando o presidente Biden. É também assim que a Copyleaks, uma empresa de detecção de IA especializada em texto, identifica chatbots de IA com 99% de precisão.
Os pesquisadores da Microsoft não afirmam abertamente que o GPT-4 está vivo, mas simplesmente que mostra “faíscas” de cognição em nível humano. No estudo de 2023 intitulado “Sparks of Artificial General Intelligence”, os cientistas da Microsoft examinaram como o LLM por trás do ChatGPT poderia compreender as emoções, explicar-se e raciocinar com as pessoas.
Os pesquisadores descobriram que o GPT-4 foi capaz de passar em vários testes de “Teoria da Mente”, que são usados para avaliar a inteligência emocional das crianças. Houve falhas absolutas no LLM da OpenAI, mas também houve faíscas de ‘humanidade’ nos testes. Os cientistas da Microsoft até questionaram como medimos a “inteligência de nível humano”.
As pessoas do Sentience Institute também cooptaram essa crença bizarra. Eles acham que os modelos de IA deveriam “receber consideração moral. ”A organização tenta expandir o círculo de coisas que são tratadas como sencientes. O Sentience Institute acredita que os modelos de IA poderão um dia ser maltratados, seja incidentalmente ou propositalmente, se não forem devidamente considerados.
Há um amplo acordo científico de que grandes modelos de linguagem não estão vivos atualmente. No entanto, há um grupo crescente de pessoas que parecem acreditar que os modelos de IA não estão longe da senciência. Chame-os de loucos ou não, mas as pessoas estão vendo fantasmas na máquina.
Publicado no Gizmodo