Traduzido por Julio Batista
Original de Ian Graber-Stiehl para a Nature
Desde 2015, Koko, um aplicativo de smartphone de saúde mental, tenta fornecer suporte através de crowdsourcing para pessoas necessitadas. Envie uma mensagem de texto ao aplicativo dizendo, por exemplo, que você está se sentindo culpado por um problema de trabalho e uma resposta empática virá em alguns minutos – talvez com alguns errinhos, mas inconfundivelmente humana – para sugerir algumas estratégias positivas de enfrentamento.
O aplicativo também pode convidá-lo a responder à situação de outra pessoa enquanto espera. Para ajudar nessa tarefa, um assistente chamado Kokobot pode sugerir alguns inícios básicos de conversa, como “eu já passei por isso”.
Mas em outubro passado, alguns usuários do aplicativo Koko tiveram a opção de receber sugestões muito mais completas do Kokobot. Essas sugestões foram precedidas por um aviso, disse o cofundador da Koko, Rob Morris, que mora em Monterey, Califórnia, EUA: “sou apenas um robô, mas aqui está uma ideia de como posso responder”. Os usuários puderam editar ou adaptar a resposta da maneira que acharam apropriada antes de enviá-la.
O que eles não sabiam na época era que as respostas foram escritas por GPT-3, a poderosa ferramenta de inteligência artificial (IA) que pode processar e produzir texto natural, graças a um enorme conjunto de treinamento de palavras escritas. Quando Morris finalmente twittou sobre o experimento, ficou surpreso com as críticas que recebeu. “Eu não tinha ideia de que geraria tanta discussão”, disse ele.
As pessoas tentam automatizar a terapia de saúde mental há 70 anos, e os chatbots, de uma forma ou de outra, fazem parte desse esforço. Há uma necessidade de maior eficiência que essas ferramentas prometem. As estimativas sugerem que para cada 100.000 pessoas em todo o mundo, há cerca de 4 psiquiatras em média; esse número é muito menor na maioria dos países de baixa e média renda.
Reconhecendo essa lacuna, os desenvolvedores de aplicativos para smartphones criaram milhares de programas que oferecem algo próximo de uma terapia que cabe no bolso. Havia 10.000 a 20.000 aplicativos de saúde mental disponíveis em 2021, de acordo com uma estimativa. Mas, para muitos desses aplicativos, as evidências para apoiar seu uso são bastante escassas, disse Nicholas Jacobson, cientista de dados biomédicos do Centro de Tecnologia e Saúde Comportamental do Dartmouth College em Líbano, New Hampshire, EUA. E a incorporação de grandes modelos de linguagem, como o GPT-3 e o chatbot ChatGPT relacionado, representa um novo passo que muitos consideram preocupante.
Alguns estão preocupados com o aumento das ameaças à privacidade e transparência, ou com a simplificação excessiva de estratégias terapêuticas para aquelas que podem ser digitalizadas facilmente. E há preocupações sobre segurança e responsabilidade legal. No início deste ano, um homem belga supostamente cometeu suicídio após semanas compartilhando suas ansiedades relacionadas a mudanças climáticas com um chatbot de IA chamado Eliza, desenvolvido pela Chai Research em Palo Alto, Califórnia, EUA. Sua esposa afirma que ele ainda estaria vivo se não tivesse se envolvido com essa tecnologia. A Chai Research não respondeu a um pedido de comentário.
Hannah Zeavin, uma estudiosa da história das ciências humanas na Universidade de Indiana em Bloomington, EUA, adverte que os cuidados de saúde mental estão em um estado frágil. Isso acaba sendo um alvo atraente e vulnerável para uma indústria que notoriamente “gosta de se adaptar e simplificar as coisas”, disse ela. E embora essa tecnologia esteja crescendo há décadas, o crescente interesse em ferramentas emergentes de IA pode impulsionar seu crescimento.
O nível da automação
O chatbot Eliza recebeu o nome de um antigo programa de processamento de linguagem natural criado pelo cientista da computação Joseph Weizenbaum em 1966. Ele foi projetado para parodiar um tipo de psicoterapia chamada terapia rogeriana, que está enraizada na ideia de que as pessoas já têm as ferramentas para resolver seus problemas, se eles pudessem acessar essas ferramentas adequadamente. A Eliza de Weizenbaum pegaria uma mensagem digitada de um humano e repetiria uma versão dela. Ele não era particularmente apaixonado pela terapia rogeriana, mas a usava porque era fácil de programar e porque achava que Eliza poderia provar sua hipótese – que a comunicação humana com uma máquina seria superficial.
Para sua surpresa, no entanto, os usuários responderam bem a Eliza. Os participantes antropomorfizaram o bot e muitas vezes estavam ansiosos para falar com ‘ela’. Como Zeavin detalha em seu livro de 2021, The Distance Cure, várias outras tentativas de criar terapeutas de chatbot automatizados após o surgimento de Eliza. Esses projetos se encaixavam em uma campanha para tornar a terapia mais acessível e disponível do que a psicoterapia convencional, com sua dependência de uma complexa relação terapeuta-paciente. Ao longo da segunda metade do século XX, psicólogos como Albert Ellis, Kenneth Colby e Aaron Beck buscaram uma abordagem mais orientada para resultados – uma que pudesse ser empacotada em apostilas, gravada em fitas e exibida em livros.
Esses pesquisadores finalmente convergiram para o que se tornaria conhecido como terapia cognitivo-comportamental (TCC), que postula que os problemas psicológicos são, em parte, devidos a padrões contraproducentes de pensamento que podem ser minimizados melhorando as estratégias de enfrentamento.
Alguns psicólogos, incluindo Colby, posteriormente tentaram automatizar a TCC por meio de chatbots de terapia e programas digitais orientados em métodos de passo a passo. A Eliza de Weizenbaum e o enxame de terapeutas computadorizados que se seguiram oferecem algumas lições relevantes para aqueles que desenvolvem aplicativos de terapia automatizada hoje: as pessoas se abrem facilmente para terapeutas inanimados; suas experiências dependem amplamente de suas expectativas em relação às plataformas; e a linguagem que um bot usa para conversar com um humano é sempre, até certo ponto, um meio-termo entre o que pode funcionar melhor e o que é possível programar.
O divã no seu bolso
Milhares de aplicativos de telefone agora se oferecem para ser o ‘coach’ ou ‘companheiro’ de alguém, ou para ‘melhorar o humor’. Eles se comercializam com cuidado, evitando alegações que possam exigir a aprovação das autoridades de saúde, como a Food and Drug Administration (FDA) dos EUA. Mesmo aqueles que atendem à definição do FDA de software utilizado como um dispositivo médico podem ser aprovados sem fornecer dados de segurança ou eficácia, desde que possam demonstrar equivalência substancial com produtos já existentes no mercado. Isso permitiu que os aplicativos aludissem a alegações científicas sem precisar fornecer evidências.
Muitos aplicativos, disse Zeavin, são rápidos em cooptar a eficácia geralmente comprovada da TCC, afirmando que seus métodos são ‘baseados em evidências’. No entanto, uma revisão de 117 aplicativos comercializados para pessoas com depressão constatou que, das dezenas que implementam os princípios da TCC, apenas 15% fizeram isso de forma consistente. A baixa adesão pode ser explicada por aplicativos que incorporam princípios e exercícios de múltiplos modelos de terapia. Mas outra análise das alegações feitas por aplicativos de saúde mental descobriu que entre as plataformas que citam métodos científicos específicos, um terço endossou uma técnica não validada. Outra pesquisa descobriu que apenas 6,2% dos aplicativos de saúde mental publicam dados de eficácia.
“A grande maioria do mercado de aplicativos não testou seu produto”, disse Jacobson. Isso não quer dizer que os aplicativos de saúde mental não tenham evidências de sua utilidade. Alguns funcionam melhor do que outros e, normalmente, são os aplicativos com humanos que fornecem orientação e treinamento que mantêm os usuários envolvidos e progredindo, disse John Torous, diretor da Divisão de Psiquiatria Digital da Harvard Medical School em Boston, Massachusetts, EUA. Várias meta-análises mostraram que esses programas digitais de saúde mental ‘guiados’ têm um desempenho comparável ou melhor do que a terapia convencional.
Aplicativos não guiados têm evidências muito menos robustas. Alguns estudos sustentam seu uso, mas, disse Torous, sem controles rigorosos, muitos podem ser distorcidos por um efeito placebo digital, no qual a afinidade das pessoas por seus dispositivos pessoais e pela tecnologia em geral aumenta a eficácia percebida de um aplicativo.
Terapeuta automatizado
Koko está longe de ser a primeira plataforma a implementar IA em um ambiente voltado a saúde mental. Em geral, a IA baseada em aprendizado de máquina foi implementada ou estudada no escopo da saúde mental em três funções.
A primeira foi o uso da IA para analisar as intervenções terapêuticas, para ajustá-las ao longo do tempo. Dois exemplos de destaque, ieso e Lyssn, treinam sua IA de processamento de linguagem natural em transcrições de sessões de terapia. Lyssn, um programa desenvolvido por cientistas da Universidade de Washington em Seattle, EUA, analisa o diálogo em relação a 55 métricas, desde expressões de empatia dos provedores até o emprego de intervenções de TCC. A ieso, fornecedora de terapia baseada em texto com sede em Cambridge, Reino Unido, analisou mais de meio milhão de sessões de terapia, rastreando os resultados para determinar as intervenções mais eficazes. Ambos essencialmente fornecem notas aos terapeutas digitais sobre como eles se saíram, mas cada serviço visa fornecer uma ferramenta em tempo real eventualmente: metade assistente de aconselhamento e metade supervisor de classificação.
A segunda função da IA tem sido no diagnóstico. Várias plataformas, como o programa REACH VET para veteranos militares dos EUA, verificam os registros médicos de uma pessoa em busca de sinais de alerta que possam indicar problemas como automutilação ou ideação suicida. Esse trabalho de diagnóstico, disse Torous, é provavelmente a aplicação mais promissora da IA na saúde mental, embora ele observe que a maioria das plataformas nascentes requer muito mais avaliação. Algumas tiveram dificuldades. No início deste ano, o MindStrong, um aplicativo de quase uma década que inicialmente visava alavancar a IA para identificar os primeiros indicadores de depressão, entrou em colapso apesar da empolgação inicial dos investidores e do cofundador e cientista renomado, Tom Insel, ex-diretor do Instituto Nacional de Saúde Mental dos EUA.
A última função provavelmente se aproxima mais do que os pioneiros da TCC, como Colby, esperavam projetar e o que assustou as pessoas sobre o experimento Koko – a ideia de um terapeuta totalmente digital que usa IA para direcionar o tratamento. Embora Koko possa ter sido a primeira plataforma a usar uma IA generativa avançada que pode criar um diálogo totalmente original, aplicativos como Woebot, Wysa e Tess usaram aprendizado de máquina em chatbots terapêuticos por vários anos. Mas essas plataformas, disse Torous, provavelmente são alimentadas por ramificações de decisões baseadas em recuperação: essencialmente um fluxograma no qual uma IA navega registrando marcadores do caminho de uma conversa para ajudar a direcioná-la por meio de um conjunto de respostas estabelecidas.
Os chatbots de terapia com IA precisarão de dados mais robustos. O experimento recente de Koko, anunciado no Twitter sem resultados publicados, ofereceu poucas métricas para contextualizar suas descobertas. Acrescenta pouca evidência quanto à eficácia de tais abordagens. O que o experimento conseguiu, no entanto, foi destacar as questões éticas. Notavelmente, poucas dessas questões são exclusivas da IA.
Uma preocupação é a transparência. Tanto a terapia presencial convencional quanto as versões automatizadas têm interesse em reter pacientes. Com a taxa média de retenção desses aplicativos caindo abaixo de 4% em 2 semanas, as plataformas terapêuticas digitais têm muito espaço para melhorias. A ética de incentivar a retenção de pacientes já é complexa – como descobriu a popular plataforma de terapia móvel TalkSpace, quando foi criticada por exigir que os terapeutas inserissem seus currículos anunciando suas habilidades com bate-papo por vídeo nas discussões com os clientes. A ética de programar um chatbot de IA terapêutico para priorizar a retenção é mais obscura, principalmente se os bots puderem aprender com as experiências com outros clientes.
A privacidade é uma consideração importante em todas as terapias. No entanto, no início de março, o aplicativo de terapia BetterHelp foi multado em US$ 7,8 milhões pela Comissão Federal de Comércio dos EUA por supostamente compartilhar informações confidenciais do usuário com anunciantes. Da mesma forma, no final de março, a empresa iniciante de saúde mental Cerebral anunciou que havia vazado os dados de 3,1 milhões de pessoas para plataformas de terceiros, como Google, Meta e TikTok.
À medida que o aprendizado de máquina se torna a base de mais plataformas de saúde mental, os designers exigirão conjuntos cada vez maiores de dados confidenciais para treinar suas IAs. Quase 70% dos aplicativos de saúde mental analisados pela Mozilla Foundation – a organização por trás do navegador Firefox – têm uma política de privacidade ruim o suficiente para ser rotulada como de “privacidade não garantida”. Portanto, a cautela é justificada.
No geral, o mercado de aplicativos terapêuticos digitais obedece a alguns padrões claros. Embora não seja realista manter todos os aplicativos de saúde mental comercializados como ‘companheiros’ ou ‘coaches’ pelos padrões que se aplicam aos terapeutas convencionais, Insel convocou este mês uma nova agência para supervisionar as ferramentas digitais de saúde mental. Atualmente, a indústria depende muito de um conjunto não muito sistematizado de padrões propostos por grupos psiquiátricos, como a Associação Psiquiátrica Americana, e guias de consumidores de organizações sem fins lucrativos, como One Mind PsyberGuide.
Mesmo com aplicativos que se baseiam em tratamentos baseados em evidências, existe a preocupação de que, à medida que mais plataformas se voltem para a IA, isso possa consolidar ainda mais a TCC como a principal opção para intervenções de saúde mental. Zeavin, como outros antes dela, argumenta que a busca pela automatização da terapia poderia democratizá-la, concedendo acesso a mais pessoas. Mas isso adiciona mais questões. Idealmente, os indivíduos devem receber o diagnóstico e o tratamento mais precisos e eficazes. A automação vem com o mesmo compromisso que Weizenbaum enfrentou décadas atrás: equilibrar a melhor abordagem com a mais fácil de programar.
Apesar de todos os benefícios potenciais que a IA pode oferecer em termos de acesso a ferramentas de saúde mental, sua aplicação à terapia ainda é incipiente, repleta de questões éticas. O GPT-3 ainda não é inteligente o suficiente para oferecer as respostas e, como alertou o Kokobot: “Sou apenas um robô”.