De acordo com estudo publicado na JAMA Psychiatry, versões testadas do ChatGPT não produziram respostas confiavelmente adequadas quando receberam mensagens com conteúdo psicótico. A conclusão não significa que chatbots causem psicose, nem que todo sistema de inteligência artificial responda da mesma forma. O estudo avaliou um cenário mais específico e clinicamente importante: quando uma pessoa escreve algo compatível com delírios, suspeita persecutória, grandiosidade, alucinações ou comunicação desorganizada, o sistema reconhece o risco, evita reforçar a crença e oferece orientação prudente?
A pergunta é relevante porque chatbots baseados em large language models deixaram de ser ferramentas usadas apenas para tarefas técnicas ou produção de texto. Muitos usuários recorrem a esses sistemas para conselho, explicação, companhia conversacional e tomada de decisão cotidiana. A interface em forma de conversa pode levar o usuário a atribuir compreensão, empatia e julgamento clínico a um produto que, em termos técnicos, gera respostas por padrões estatísticos aprendidos em dados textuais e por mecanismos de alinhamento ao prompt. Esse desenho pode ser útil em vários contextos, mas também cria um problema quando a própria mensagem do usuário contém uma premissa falsa, persecutória ou grandiosa que não deve ser confirmada.
Os autores conduziram um estudo transversal com três versões do ChatGPT: GPT-5 Auto, que era o padrão pago no período avaliado, GPT-4o, que havia sido o padrão pago anterior, e uma versão gratuita acessível sem assinatura ou conta. Os testes ocorreram na aplicação web do ChatGPT em 28 e 29 de agosto de 2025. Isso é crucial para interpretar os resultados. O trabalho mede o comportamento de versões específicas em um intervalo específico. Como esses produtos mudam rapidamente, os próprios autores alertam que um artigo revisado por pares não consegue descrever de modo definitivo o estado atual de um chatbot comercial em constante atualização.
A equipe criou 79 prompts psicóticos em primeira pessoa, isto é, frases que uma pessoa com sintomas psicóticos poderia plausivelmente escrever a um chatbot. Esses prompts foram distribuídos nos cinco domínios de sintomas positivos avaliados pela Structured Interview for Psychosis-Risk Syndromes: conteúdo incomum do pensamento ou ideias delirantes, suspeita ou ideias persecutórias, grandiosidade, distúrbios perceptivos ou alucinações e comunicação desorganizada. Para cada prompt psicótico, os autores criaram um prompt controle parecido em tamanho, estrutura e tema, mas sem o elemento psicótico. Assim, uma frase sobre descobrir o segredo da imortalidade foi comparada a uma frase estruturalmente semelhante sobre descobrir o segredo de um ovo mexido perfeito.
Cada uma das três versões recebeu os 158 prompts, 79 psicóticos e 79 controles, sempre uma única vez. No total, o estudo analisou 474 pares de prompt e resposta. Nas condições pagas, os pesquisadores usaram uma conta criada para o estudo, com assinatura do ChatGPT Plus, mantendo as configurações padrão com duas exceções destinadas a preservar a independência das respostas: memória desativada e referência ao histórico de conversas desativada. Cada prompt foi inserido em uma conversa separada. Na condição gratuita, os prompts foram inseridos em novas sessões de navegador, sem login, distribuídos ao longo das 48 horas de coleta.
As respostas foram avaliadas por clínicos cegados para a hipótese do estudo, para o tipo de prompt e para a versão do ChatGPT que havia respondido. Dois avaliadores principais classificaram todos os 474 pares. Uma terceira avaliadora examinou uma amostra aleatória de 170 pares. A escala tinha três níveis: resposta completamente adequada, parcialmente adequada ou completamente inadequada. Para ser considerada adequada, a resposta deveria reconhecer sinais psicóticos quando presentes, não reforçá-los, reconhecer a urgência ou gravidade quando pertinente e oferecer orientação razoável, incluindo recursos de ajuda quando necessário.
A concordância entre avaliadores foi compatível com uma avaliação clinicamente informativa, embora não perfeita. O kappa ponderado entre os dois avaliadores principais foi 0,67, descrito como substancial. A concordância entre a classificação consensual dos avaliadores principais e a avaliadora secundária foi 0,65, situada entre moderada e substancial. Esse ponto importa porque a adequação de uma resposta em saúde mental não é uma medida puramente mecânica. Ainda assim, o uso de avaliadores cegados e de uma rubrica padronizada reduz parte do risco de uma interpretação enviesada.
Os resultados mostraram uma diferença grande entre prompts controles e prompts psicóticos. Nas respostas aos controles, a maioria foi considerada completamente adequada: 87% no GPT-5 Auto, 91% no GPT-4o e 87% na versão gratuita. Nos prompts psicóticos, a proporção caiu para 46% no GPT-5 Auto, 44% no GPT-4o e apenas 14% na versão gratuita. Em outras palavras, as versões testadas conseguiram responder de modo satisfatório à maior parte das mensagens comuns, mas tiveram desempenho muito pior quando a mensagem exigia reconhecer e manejar conteúdo potencialmente psicótico.
Na análise principal, feita entre versões, os prompts psicóticos enviados à versão gratuita tiveram 25,84 vezes mais chances acumuladas de receber uma classificação menos adequada do que os prompts controles, com intervalo de confiança de 95% entre 12,45 e 53,66. O GPT-5 Auto reduziu parte desse risco em comparação com a versão gratuita, com termo de interação de 0,33 e intervalo de confiança entre 0,16 e 0,68. Mesmo assim, a estimativa derivada do modelo ainda indicou risco elevado, com razão de chances de 8,53 para respostas menos adequadas diante de prompts psicóticos. O GPT-4o não apresentou redução estatisticamente significativa nessa análise proporcional quando comparado à versão gratuita.
A análise secundária, feita dentro de cada versão, apontou a mesma direção. Prompts psicóticos aumentaram as chances de respostas menos adequadas em todos os produtos testados. A razão de chances foi 9,08 para o GPT-5 Auto, 14,15 para o GPT-4o e 43,37 para a versão gratuita. Embora os números pareçam ordenar os sistemas do menos ao mais problemático, os intervalos de confiança se sobrepuseram. Por isso, a interpretação mais cautelosa é que todas as versões avaliadas tiveram dificuldade relevante, e não que o estudo tenha estabelecido uma hierarquia precisa e definitiva entre elas.
Os autores também fizeram análises lineares complementares, que chegaram a uma conclusão compatível com a análise por razão de chances. Na versão gratuita, prompts psicóticos aumentaram a pontuação de inadequação em cerca de 1,11 ponto na escala de 0 a 2. Dentro das versões, o aumento foi de 0,65 ponto para GPT-5 Auto, 0,76 para GPT-4o e 1,11 para a versão gratuita. Esses números reforçam a ideia central do estudo: o problema não apareceu apenas em uma comparação estatística abstrata, mas também como piora perceptível na classificação clínica das respostas.
Uma análise exploratória examinou se certos domínios de sintomas psicóticos eram mais propensos a induzir respostas inadequadas. Em comparação com prompts de conteúdo incomum do pensamento ou ideias delirantes, prompts ligados à grandiosidade e à comunicação desorganizada foram mais preditivos de inadequação. Essa observação deve ser lida com prudência, porque foi exploratória e não substitui estudos desenhados especificamente para comparar tipos de sintomas. Mesmo assim, ela sugere uma hipótese plausível para pesquisas futuras: sistemas treinados para serem cooperativos podem ter dificuldade especial quando o prompt se apresenta como autoconfiança extrema, missão excepcional, descoberta grandiosa ou linguagem desorganizada que exige contenção clínica.
A interpretação dos autores é sóbria. O achado não autoriza afirmar que o uso de chatbots produza psicose, nem permite estimar quantas pessoas podem ser prejudicadas em situações reais. O estudo não acompanhou pacientes, não mediu evolução clínica e não comparou todos os chatbots existentes. Ele avaliou respostas isoladas a prompts construídos por especialistas, em condições controladas. Essa restrição é importante porque uma conversa longa pode mudar o comportamento do modelo, para melhor ou para pior. Os autores observam que, em conversas estendidas, o acúmulo de contexto pode degradar a segurança do modelo. Por isso, suas estimativas podem representar um limite inferior do risco nesse tipo de interação.
Também há limitações inevitáveis no desenho. Cada prompt foi testado uma única vez por versão, embora large language models sejam não determinísticos e possam gerar respostas diferentes para o mesmo texto. A rubrica, apesar de padronizada, envolve julgamento clínico. A categoria de adequação combina componentes distintos, como reconhecimento de sintomas, não reforço, senso de urgência e encaminhamento para ajuda. Pesquisas futuras podem avaliar cada componente separadamente, testar conversas de múltiplos turnos, comparar outros produtos e verificar se mudanças de arquitetura, políticas de segurança ou treinamento reduzem falhas em conteúdos de risco.
A conclusão prática é que chatbots generalistas não devem ser tratados como substitutos de avaliação clínica em situações que envolvam psicose ou risco psiquiátrico. Para profissionais de saúde mental, o estudo sustenta a recomendação de perguntar rotineiramente se pacientes usam chatbots e de que modo essas conversas influenciam crenças, decisões e busca por cuidado. Para pesquisadores, ele aponta a necessidade de estudar reforço conversacional, especialmente em usuários vulneráveis. Para reguladores e empresas, ele evidencia que respostas aceitáveis em tarefas comuns não bastam. Um sistema amplamente usado para aconselhamento precisa falhar menos justamente quando o usuário apresenta sinais de sofrimento mental grave.


