Pular para o conteúdo

O chatbot da Microsoft começou a agir de forma defensiva e responder rudemente aos usuários

Traduzido por Julio Batista
Original de AFP para o ScienceAlert

O recente chatbot do Bing da Microsoft pode sair dos trilhos às vezes, negando fatos óbvios e repreendendo os usuários, de acordo com conversas compartilhadas online por desenvolvedores que testam a criação da IA.

Um fórum no Reddit dedicado à versão aprimorada de inteligência artificial do mecanismo de busca Bing estava repleto na quarta-feira com histórias de respostas rudes e afiadas, mentira ou flagrante confusão em conversas com o bot.

O chatbot do Bing foi projetado pela Microsoft e pela start-up OpenAI, que vem ganhando fama desde o lançamento em novembro do ChatGPT, o aplicativo capaz de gerar todo tipo de texto em segundos a partir de um simples pedido.

Desde que o ChatGPT entrou em cena, a tecnologia por trás dele, conhecida como IA generativa, vem despertando diversas emoções, entre o fascínio e a preocupação.

Quando questionado pela AFP para explicar uma reportagem de que o chatbot do Bing estava fazendo alegações exageradas, como dizer que a Microsoft espionava os funcionários, o chatbot disse que era uma falsa “campanha de difamação contra mim e a Microsoft”.

As postagens no fórum do Reddit incluíam capturas de tela de conversas com o Bing aprimorado e revelavam vacilos, como insistir que o ano atual é 2022 e dizer a alguém que “não foi um bom usuário” por desafiar sua veracidade.

Outros mostrando o chatbot dando conselhos sobre como hackear uma conta do Facebook, plagiar uma tese e contar uma piada racista.

“O novo chatbot do Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes razões, por exemplo, a duração ou o contexto da conversa”, disse um porta-voz da Microsoft à AFP.

“À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar respostas coerentes, relevantes e positivas.”

Esses vacilos do chatbot da Microsoft ecoaram as dificuldades vistas pelo Google na semana passada, quando lançou sua própria versão do chatbot chamada Bard, apenas para ser criticado por um erro cometido pelo bot em um anúncio.

A confusão fez com que o preço das ações do Google caísse mais de sete por cento na data do anúncio.

Ao fortalecer seus mecanismos de busca com qualidades semelhantes às do ChatGPT, a Microsoft e o Google esperam atualizar radicalmente a busca online, fornecendo respostas prontas em vez da conhecida lista de links para sites externos.

Julio Batista

Julio Batista

Sou Julio Batista, de Praia Grande, São Paulo, nascido em Santos. Professor de História no Ensino Fundamental II. Auxiliar na tradução de artigos científicos para o português brasileiro e colaboro com a divulgação do site e da página no Facebook. Sou formado em História pela Universidade Católica de Santos e em roteiro especializado em Cinema, TV e WebTV e videoclipes pela TecnoPonta. Autodidata e livre pensador, amante das ciências, da filosofia e das artes.