ChatGPT terapeuta: quais são os perigos de confiar sua mente a uma IA?

Dezesseis toques no teclado podem aliviar um peso esmagador. São o começo de uma conversa com “posso desabafar?” e o fim daquela sensação de carregar tudo sozinho. A mensagem não é destinada a um amigo, nem a um terapeuta humano.

Quem a recebe é uma inteligência artificial. À altura dos olhos estão a tela, o teclado e os dedos prontos para revelar os segredos mais íntimos a uma IA. Pelo chat chega a resposta: “Claro, estou aqui para te ouvir”.

A nova geração de “terapeutas” não tem rosto, currículo, nem um consultório onde você possa esperar por sua vez. E, ainda assim, é para ela que recorrem cada vez mais pessoas.

Um levantamento recente da Harvard Business Review mostra que a busca por aconselhamento terapêutico está em primeira posição do ranking de como as pessoas estão usando a IA. O fenômeno também é brasileiro. Segundo a agência de estudos de comportamento Talk Inc., no Brasil, 12 milhões de pessoas usam a IA como terapeuta.

Como a Inteligência Artificial está sendo usada para terapia no Brasil

O uso da inteligência artificial para apoio psicológico está crescendo no mundo (e no Brasil)Carolina Mika Nanba/CLAUDIA

A estudante Joana*, de 25 anos, abre o ChatGPT quando está ansiosa. Ela pede que a IA escreva mensagens difíceis para seu namorado, pratica exercícios de respiração sugeridos pela ferramenta e se sente livre para falar sobre qualquer assunto, de trabalho a sexualidade, sem julgamentos. Para ela, o bot oferece um misto de acolhimento com sinceridade que, muitas vezes, nem os amigos conseguem — e sem cobrar nada. 

Entre polêmicas, fascínio e críticas sobre a utilização da tecnologia para terapia, paira no ar uma dúvida: a inteligência artificial realmente funciona para esse tipo de apoio emocional? Para entender a resposta, é preciso compreender melhor como funcionam os chatbots, essas IAs com as quais conversamos por meio de um chat.

Continua após a publicidade

Eles são baseados em modelos de auto-completar. Assim como o Google sugere palavras que tendem a vir em sequência (digite “Bruna” e aparecerá “Marquezine” ou “parabéns” e terá “pra você”), os chatbots usam da probabilidade para gerar suas respostas.

A partir do texto enviado pelo usuário, o chamado prompt, eles calculam a sequência de palavras mais provável para dar continuidade à conversa. Se você digita “posso desabafar?”, é por cálculo estatístico, e não empatia, que a IA responde: “claro, estou aqui para te ouvir”.

“Tudo o que está por trás da resposta é número. Apesar de parecer humano por utilizar a nossa linguagem, a máquina não pensa, ela simplesmente processa dados”, explica Fernando Osório, coordenador de difusão do Centro de Inteligência Artificial e Aprendizado de Máquina da USP. Para funcionar, os chatbots recorrem a vastos bancos de dados e conteúdos disponíveis na internet.

“Esse material reúne tanto informações confiáveis, quanto textos equivocados,” afirma o professor. Mas é fácil se convencer de que há alguém do outro lado, ou pelo menos muito conhecimento. Isso porque a IA tem uma linguagem bem articulada e convincente, mas segundo o especialista, ela só “lê o senso comum” e até pode fingir que está sentindo algo, mas é incapaz de ter emoções. 

O apelo das IAs não está apenas na sofisticação técnica. Sessões com psicólogos nem sempre cabem no bolso de quem vive com um salário mínimo, o SUS tem dificuldade de oferecer atendimento psicológico para toda a população e planos de saúde frequentemente não cobrem o setor adequadamente. Tudo isso faz com que o acesso à saúde mental não chegue para todos no Brasil.

Continua após a publicidade

O que chatbots podem e não podem fazer pela saúde mental

Como a inteligência artificial está sendo usada para terapia no Brasil
Uso de chatbots para aconselhamento psicológico preocupa especialistasCarolina Mika Nanba/CLAUDIA

Esse vazio abre espaço para riscos. “A partir do texto que envio, o chatbot vira um espelho. Ele vai tentar me agradar, refletir o contexto que entreguei e seguir o que estou afirmando”, diz Fernando.

Os especialistas concordam que as IAs têm uma tendência bajuladora e acabam nos falando o que queremos ouvir. Se você discorda de uma resposta, ela tende a pedir desculpas e perguntar se deseja uma nova pesquisa. “Existem interesses financeiros por trás disso, afinal a IA é um serviço e quer manter seus usuários”, pontua Ferdinando Martins, doutor em sociologia pela USP e professor da universidade.

E aqui mora a maior limitação dos robôs como terapeutas. “Não há respostas prontas na terapia, você as procura dentro de si. O trabalho do terapeuta muitas vezes provoca um desconforto para que você amadureça emocionalmente. Ele vai ouvir o que o paciente está dizendo, inclusive nas entrelinhas, porque muitas coisas se demonstram de forma não verbal. A IA oferece a resposta que você quer ouvir, não necessariamente é a que você precisa ouvir”, pontua Larissa Fonseca, psicóloga clínica e doutoranda em ansiedade, depressão, sono e sexualidade feminina pela Unifesp.

Por outro lado, um estudo publicado na New England Journal of Medicine investigou o uso do chatbot Therabot entre adultos com sintomas de depressão, ansiedade generalizada ou preocupações com alimentação e imagem corporal e percebeu uma melhora significativa com o uso da ferramenta. A pesquisa, porém, tem suas limitações.

Continua após a publicidade

O número de participantes foi de apenas 210 pessoas, o acompanhamento durou só oito semanas e o estudo não foi duplo-cego: os participantes sabiam que estavam usando uma IA e participando de uma pesquisa.

Larissa acredita que ela serve mais para organizar emoções, do que como o trabalho de um psicólogo ou psicanalista — e que isso poderia ser benéfico no começo.

“A IA oferece um porto seguro para a pessoa começar a falar e se compreender mais, mas suas respostas não são terapêuticas, serve mais como um diário, e isso também pode ser feito com um papel e caneta.” O estudo, no entanto, revelou um dado curioso: muitos participantes criaram vínculos com a IA, que, na prática, não está nada preparada para lidar com sentimentos humanos.

Inteligência Artificial e privacidade: os perigos de delegar emoções a chatbots

Por que as inteligências artificias não conseguem ter sentimentos e, consequentemente, ajudar os seres humanos
Especialistas defendem que apenas um robô poderia ter emoçõesCarolina Mika Nanba/CLAUDIA

Muita gente tem medo da IA dominar o mundo, mas, efetivamente, esquece de olhar para o que tem de mais perigoso. “A inteligência artificial não pensa, mas, como muita gente é ávida por uma interpretação, por algo que as defina, pode acabar se esquecendo disso. E aí sim existe um risco de delegar algo que não deveria ser delegado”, acrescenta Ferdinando. “Somos um misto de muitas coisas, então é fácil se identificar e extrair o que queremos disso”, diz o professor.

Continua após a publicidade

Também é preciso considerar a dataficação, afinal, todo desabafo enviado a sua IA favorita se torna dado digital. As próprias plataformas informam que essas interações podem ser usadas no treinamento de versões futuras da tecnologia.

Mas é possível ir além. Esses dados poderiam ser vendidos a anunciantes, utilizados para traçar perfis comportamentais ou até mesmo servir de base para a criação de um avatar póstumo, com o qual familiares interagiriam após sua morte, imaginam os especialistas.

O cenário se torna terreno fértil num mundo em que as máquinas nos conhecem melhor do que nossos familiares e amigos. E, se isso soa como um episódio de Black Mirror, vale lembrar que já estamos vivendo essa ficção — de novo, já são 12 milhões de brasileiros com esse hábito.

“É preciso partir do princípio de que, no momento em que vivemos, a nossa privacidade é em grande parte uma ilusão. A máquina consegue descobrir sua orientação sexual, por exemplo, antes mesmo da sua família ter acesso a essa informação. Somos tão conectados ao celular que a interação com ele às vezes é muito maior do que com colegas de trabalho, família ou qualquer parente”, afirma Ferdinando.

Mas será que a tecnologia, um dia, será capaz de compreender de fato as emoções humanas e atuar como um psicólogo qualificado? Ainda não há uma resposta definitiva e, para muitos pesquisadores, se isso um dia acontecer, não será por meio dos chatbots, e sim da robótica. Fernando Osório é um dos que defendem essa ideia.

Continua após a publicidade

“O mundo é físico, tridimensional. Existem relações de espaço, tempo, leis da física, gravidade e outras coisas. O ser humano aprende a viver nesse mundo porque, desde criança, experimenta: põe a mão no fogo e queima, e aí sabe o que é dor. Então, a experiência, a vivência, são insubstituíveis para interagir com os elementos do mundo e desenvolver emoções. Quem pode fazer isso num futuro? Um robô. Porque o robô pode sentir o mundo, tocar, caminhar e explorar. Um computador em cima de uma mesa, dentro de um servidor da Google, da Meta ou da OpenAI, não.”

Assine a newsletter de CLAUDIA

Receba seleções especiais de receitas, além das melhores dicas de amor & sexo. E o melhor: sem pagar nada. Inscreva-se abaixo para receber as nossas newsletters:

Acompanhe o nosso WhatsApp

Quer receber as últimas notícias, receitas e matérias incríveis de CLAUDIA direto no seu celular? É só se inscrever aqui, no nosso canal no WhatsApp

Acesse as notícias através de nosso app 

Com o aplicativo de CLAUDIA, disponível para iOS e Android, você confere as edições impressas na íntegra, e ainda ganha acesso ilimitado ao conteúdo dos apps de todos os títulos Abril, como Veja e Superinteressante.

Publicidade

Dicas do Beto
Dicas do Beto
Artigos: 4604

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

pt_BRPortuguese