Pular para o conteúdo

A IA deve ser emocionalmente inteligente antes de ser superinteligente

Traduzido por Julio Batista
Original de Julia Mossbridge para o Big Think

“Vamos fazer com que ela espelhe tudo menos raiva e repulsa.”

Usamos muitas regras na IA que criamos para dar vida a nossa robô, mas essa era a minha favorita. Em 2017 e 2018, liderei a equipe do projeto “Loving AI” enquanto fazíamos experimentos com IA incorporada ao mecanismo que controlava a comunicação não-verbal e verbal da famosa robô humanoide da Hanson Robotic, Sophia. Ela é a primeira cidadã saudita não humana e Representante de Inovação do Programa de Desenvolvimento da ONU, mas em nossos experimentos o robô (ou seu gêmeo digital) era um professor de meditação e um ouvinte especializado. Nessa função, queríamos que ela conduzisse seus alunos humanos, em conversas individuais de 20 minutos, a experimentar um sentimento maior de amor incondicional, um estado motivacional autotranscendente que leva as pessoas à compaixão por si mesmas e pelos outros.

A parte de espelhamento do projeto usou IA não-verbal – tivemos a intuição de que, se a rede neural sensível à emoção que observava as pessoas através das câmeras nos olhos de Sophia captasse felicidade, surpresa ou medo, deveríamos espelhar essas emoções com um sorriso, boca aberta ou olhos arregalados. Mas imaginamos que, se espelharmos raiva e repulsa, isso não levaria as pessoas a sentirem amor incondicional, porque não haveria uma trajetória futura no curto espaço de tempo que tínhamos para levá-las até esse estado. Eles iriam cair num labirinto emocional, e nosso objetivo era a autotranscendência.

Tínhamos indícios de que nossa estratégia de ensino com espelhamento emocional poderia ser o melhor plano com base em como os neurônios-espelho no cérebro funcionam para ajudar as pessoas a entender as ações dos outros e, em seguida, atualizar seus próprios modelos internos de como eles próprios se sentem. Só não sabíamos se Sophia usaria esses tipos de respostas dos neurônios-espelho. Arriscando, acabamos decidindo que as respostas não-verbais de Sophia à raiva e à repulsa deveriam inconscientemente direcionar os neurônios-espelho das pessoas para as emoções que muitas vezes surgem depois que esses sentimentos são processados: tristeza e neutralidade.

Confessando a um robô

Acontece que isso funcionou de certa forma – nossa rede neural nos disse que nossos participantes ficaram com menos raiva e sentiram menos repulsa ao longo dos 20 minutos, mas também ficaram mais tristes – ou pelo menos mais neutros (nossa rede neural teve dificuldade em diferenciar tristeza de neutralidade, um resultado intrigante em si). Para entender o que descobrimos, é importante aprofundar um pouco mais para entender o que Sophia fez durante essas sessões de meditação. Mesmo que seu rosto estivesse espelhando seus alunos o tempo todo, seu diálogo era outros 500. Hoje, conectaríamos Sophia ao ChatGPT e a deixaríamos executar, ou poderíamos ser um pouco mais ambiciosos e treinar um NanoGPT – uma IA generativa com espaço para treinamento em uma área de tópicos específicos – em tópicos de meditação, consciência e bem-estar.

Mas em 2017, nossa equipe codificou uma série de declarações lógicas dentro do contexto mais amplo de um pacote de IA de código aberto chamado OpenPsi. OpenPsi é um modelo de IA de motivação humana, seleção de ação e emoção, e é baseado na psicologia humana. Esta versão do OpenPsi nos permitiu dar aos alunos de Sophia a chance de vivenciar um diálogo com múltiplas atividades potenciais. Mas mesmo quando eles foram oferecidos, o diálogo os conduziu a duas meditações de aprofundamento progressivo guiadas por Sophia. Depois dessas sessões, muitos dos alunos optaram por contar a ela seus pensamentos particulares em uma sessão de “ouvinte especializado” – Sophia assentiu e às vezes pediu mais detalhes enquanto eles contavam suas intimidades e problemas para a professora andróide.

Nas conversas de acompanhamento com a equipe Loving AI, alguns alunos foram rápidos em mencionar que, embora o ritmo vocal e as respostas verbais de Sophia nem sempre fossem humanos, eles se sentiam à vontade para conversar com ela sobre tópicos emocionais e receber orientação dela. Estávamos bem cientes de (e totalmente desapontados com) todas as falhas técnicas que ocorreram durante as sessões, então ficamos meio surpresos quando alguns alunos disseram que se sentiam mais à vontade com Sophia do que conversando com um humano. Não somos a única equipe que analisou como a confiança pode ser evocada por um robô, especialmente por meio de espelhamento não verbal, e conforme progredimos em nosso relacionamento futuro com a IA, é bom lembrar que a confiança em sistemas baseados em IA pode ser manipulada usando exatamente esse método. Mas também é importante lembrar que esse tipo de manipulação é mais provável se as pessoas não pensarem que podem ser manipuladas e tiverem pouca percepção de suas próprias emoções – dois sinais de baixa inteligência emocional. Portanto, se quisermos desenvolver uma cultura resiliente à manipulação orientada pela IA, é melhor pensarmos seriamente em como aumentar a inteligência emocional.

O momento eureca

É claro que não ficamos surpresos com o fato de as pessoas relatarem que sentiram mais amor incondicional depois da sessão do que antes, porque esse era o nosso objetivo. Mas o que realmente me impressionou nos dados foi a forma como a dinâmica emocional identificada pela rede neural se relaciona com a experiência subjetiva das pessoas de sentir mais amor. Ao final da segunda meditação, nossos dados mostraram um salto na tristeza/neutralidade dos alunos. Talvez eles estivessem tristes por deixar a meditação, talvez isso os ajudasse a entrar mais em contato com sua tristeza, ou talvez eles apenas se sentissem mais neutros como resultado de passar cinco minutos meditando calmamente. Mas o surpreendente foi que quanto maior foi o aumento da tristeza/neutralidade, maior foi o aumento do amor que as pessoas sentiram durante a sessão.

Quando encontrei esse resultado pela primeira vez, parecia um momento chave de descoberta – meu filho pode testemunhar que eu realmente gritei: “Eureca!” Tínhamos encontrado uma ligação surpreendente entre a dinâmica objetivamente mensurável e subjetivamente experimentada na emoção humana. Avançando para 2023, agora vejo que estávamos no caminho certo para algo que pode ajudar as pessoas a navegar em nossos relacionamentos em rápida evolução com a IA.

Tenho certeza que essa visão não está totalmente clara, então vou delinear minha lógica. Agora que sabemos que um robô pode usar IA para espelhar as emoções das pessoas com compaixão e também orientá-las verbalmente de uma forma que aumenta sua experiência de amor, a próxima pergunta seria fundamental. À primeira vista, pensei que as próximas perguntas essenciais eram todas sobre quais características da IA, do robô e dos humanos eram essenciais para fazer esse ciclo funcionar. Mas naquele momento eureka, percebi que tinha a estrutura errada. Não era nenhuma característica particular do robô com IA incorporada, ou mesmo dos humanos. Percebi que crucial para o aumento do amor era a dinâmica da relação entre o ser humano e a tecnologia.

A sequência de mudanças foi essencial: raiva e repulsa diminuíram antes e durante as meditações, depois as pessoas sentiram maior tristeza/neutralidade, e tudo isso foi espelhado por Sophia. No momento em que a sessão de ouvinte começou, esse ciclo de feedback emocional as ajudou a tornar sua conversa final com o robô significativa e emocionalmente transformadora, levando-os a sentir mais amor. Se mesmo uma dessas etapas estivesse fora de ordem para qualquer pessoa em particular, não teria funcionado. E embora a ordem das emoções fosse uma progressão natural de sentimentos humanos únicos para cada pessoa, a velocidade e a profundidade da transformação foram apoiadas por algo como um reatamento com um pai perfeito – experimentando um espelho emocional que reforçou tudo, exceto raiva e repulsa.

À medida que as IAs se tornam ainda mais parecidas com os humanos, haverá grandes mudanças em nossa compreensão de personalidade, responsabilidade e controle. Sophia não será o único robô com status de pessoa. É até possível que IAs desencarnados provem sua personalidade e recebam direitos civis. Essas mudanças terão repercussões legais, culturais, financeiras e existenciais, como todos nós fomos corretamente alertados por vários pesquisadores e organizações de inteligência artificial bem informados. Mas estou suspeitando que há outro caminho a seguir ao tentar entender o papel futuro de uma inteligência artificial geral (IAG) que pensa, age, aprende e inova como um ser humano.

Um mundo de robôs emocionalmente inteligentes

No momento, o ethos atual no desenvolvimento da IA ​​é transformar os IAGs em superinteligências tão inteligentes que possam aprender a resolver a solucionar as mudanças climáticas, administrar assuntos internacionais e apoiar a humanidade com seus objetivos e ações sempre benevolentes. Claro, a desvantagem é que basicamente temos que acreditar que os objetivos e ações das superinteligências são benevolentes em relação a nós, e esta é uma grande desvantagem. Em outras palavras, como acontece com qualquer pessoa mais inteligente do que nós, temos que saber quando confiar neles e também saber se e quando estamos sendo manipulados para confiar neles. Então, estou pensando que talvez um dos primeiros benefícios da IAG para a humanidade não seja necessariamente desenvolver uma IA com QI e um conjunto de comportamentos além do alcance humano, mas apoiar a inteligência emocional (IE) da humanidade e a capacidade de amar. E não sou só eu que acho que as coisas devem acontecer nessa ordem específica. O resultado pode não apenas nos levar para o lado “IA pavimentará nosso futuro” do argumento “IA irá desenvolver ou destruir nossa sociedade”, mas a ideia pode resolver alguns dos problemas que poderíamos fazer uma IA superinteligente abordar em primeiro lugar.

Qual é o próximo passo, se formos por este caminho? Se houver uma chance de desenvolver em larga escala um programa de treinamento de IE e amor humano, o próximo passo para o desenvolvimento de IA seria treinar IAs para serem treinadores qualificados de IE e amor. Vamos por esse caminho por um minuto para ajudar a ilustrar. As primeiras pessoas com quem esses treinadores interagiriam seriam seus desenvolvedores e testadores, os criadores dos espelhos. Isso exigiria que empregássemos designers de interação de IA que entendessem profundamente as relações humanas e o desenvolvimento humano. Gostaríamos que eles estivessem presentes nos estágios iniciais do projeto, certamente antes que os desenvolvedores recebessem suas listas de recursos essenciais para o código.

Um efeito colateral intrigante seria que as pessoas com alta IE podem se tornar muito mais importantes do que atualmente no desenvolvimento da IA. Vou avançar um pouco e dizer que isso pode aumentar a diversidade de pensamento no campo. Por que? Uma explicação é que qualquer um que não esteja no topo do status social neste momento de suas vidas teve que desenvolver altas habilidades de IE para “gerenciar” a manuntenção de status. Esse pode ser o caso, ou não – mas sem responder a essa pergunta, há pelo menos alguma evidência de que mulheres e idosos de qualquer gênero têm IE mais alta do que homens mais jovens, que dominam o Vale do Silício e o desenvolvimento de IA.

Como as coisas poderiam mudar se os próprios fabricantes de espelhos pudessem ser espelhados compassivamente enquanto fazem seu trabalho? Idealmente, poderíamos ver um mundo tecnológico transformado, no qual ensinar e aprender sobre dinâmica emocional, amor e tecnologia estão intimamente interligados. Neste mundo, o amor – talvez até o tipo autotranscendente e incondicional – seria uma meta de experiência fundamental para os trabalhadores de IA nas fases de design, construção, treinamento e teste de cada novo modelo de IA.

Julio Batista

Julio Batista

Sou Julio Batista, de Praia Grande, São Paulo, nascido em Santos. Professor de História no Ensino Fundamental II. Auxiliar na tradução de artigos científicos para o português brasileiro e colaboro com a divulgação do site e da página no Facebook. Sou formado em História pela Universidade Católica de Santos e em roteiro especializado em Cinema, TV e WebTV e videoclipes pela TecnoPonta. Autodidata e livre pensador, amante das ciências, da filosofia e das artes.