
Profissional reúne mais de 100 mil seguidores no perfil do Instagram @bruno_farias_psicologo (Foto: Arquivo pessoal)
Luísa (nome alterado a pedido da entrevistada, que preferiu não se identificar) começou a conversar com uma inteligência artificial durante uma madrugada em que a ansiedade parecia não dar trégua. “Eu precisava desabafar e estava com poucos recursos para procurar ajuda profissional. Então abri o ChatGPT e expliquei tudo o que estava acontecendo”, lembra.
Quase todos os dias, ela volta para aquele espaço digital em busca de conselhos. “Era estranho no começo, mas sinto que ali posso ser totalmente sincera sobre meus medos e dúvidas, a qualquer hora e sem ser julgada”, diz.
A entrevistada faz parte de um grupo crescente de pessoas que recorrem à inteligência artificial em busca de conforto emocional. Para compreender melhor as consequências dessa prática, conversamos com o psicólogo Bruno Eduardo Farias, que estuda os impactos da IA.
1.O que leva uma pessoa a buscar inteligência artificial como forma de desabafo ou apoio emocional?
Desde os estudos do pesquisador John Bowlby, sabemos que o ser humano é um ser social, nós temos dependência de vínculos, não só para nossa sobrevivência na infância, mas para significar a nossa vida. O ser humano é um ser social, então as inteligências artificias, hoje, estão sendo utilizadas para diversos fins.
Até o presente momento, os dados nos mostram que a esmagadora maioria das pessoas que fizeram uso da IA como terapia são da geração Z, nascidas de 1995 até 2010. E, até agora, acredita-se que essa busca acontece por conta do “hype”, da novidade e também por conta desse afastamento dos vínculos. As nossas vidas estão em ritmos tão acelerados, temos tantos compromissos, estamos tão distraídos com toda a perda de tempo que as distrações digitais nos provocam, que nos afastamos das pessoas, dos vínculos verdadeiros. E como somos carentes de vínculos, algumas pessoas recorrem à IA.
2.Nesse contexto, como usar a ferramenta de forma inteligente e segura?
Uma pessoa até pode “desabafar” com a IA, mas isso não é terapia. Até o presente momento, é impossível uma IA oferecer psicoterapia para alguém. O que ela consegue fazer é oferecer algumas respostas dentro do texto que você digitou. A psicoterapia requer tempo e escuta adequada. É necessário, durante o processo terapêutico, perceber as nuances emocionais: quando o paciente coloca ênfase emocional em uma palavra, uma pausa entre uma frase e outra, uma respiração um pouco mais longa, o movimento do corpo, a reação a uma pergunta que é feita. Esses detalhes fazem toda a diferença. É através dessa dinâmica, dessa convivência entre terapeuta e paciente, e na formação do vínculo, que vão nascendo as análises, os debates teóricos que serão positivos para o paciente, que são percebidas as técnicas e intervenções mais adequadas para aquele caso. Até o presente momento, uma IA não é capaz de fazer isso.
Recentemente, engenheiros que desenvolveram o ChatGPT, em parceria com o MIT, publicaram uma pesquisa mostrando que não é seguro utilizar o ChatGPT como terapeuta. A IA tende a ser muito complacente, ela tende a concordar com você, por mais absurdo que seja o que você está falando. A IA, usada como terapeuta, pode levar o paciente a autoengano, pode reforçar distorções cognitivas, porque é como se ela funcionasse como um espelho. Ela vai oferecer aquilo que você está interessado em ler. Caso a IA oferecer uma resposta que você não concorda, que você não gosta, você continua o “diálogo”, até encontrar aquilo que vai te satisfazer. E você não conseguiria manobrar uma nutricionista humana, uma médica humana, um dentista humano, nem uma psicóloga humana. Então esses pesquisadores mostraram que por conta desse alto nível de complacência, a IA, que é uma excelente tecnologia e pode ser utilizada para muitos fins positivos, não deveria ser utilizada para psicoterapia.
3.Quais são os riscos e consequências do uso inadequado da IA para essa finalidade?
Os riscos são sérios. É uma tecnologia nova e ainda não existem tantas pesquisas para nos ajudar a pensar. Como exemplo, um grupo de nutricionistas desenvolveu um paciente fictício e utilizou inteligências artificiais para tratar esse paciente. Se um ser humano seguisse as orientações da IA, estaria desnutrido e anêmico. A IA errou muito seriamente na conduta com o paciente fictício.
Na questão da psicologia, o risco está em justamente levar o paciente a autoengano ou a algo bem mais preocupante, que é o reforço do narcisismo. Uma pessoa pode estar equivocada, utilizar IA, que, através de palavras elegantes, pode convencer aquela pessoa de algo que não é real. Aqui em Santos (SP), um grupo de psicólogos desenvolveu pacientes fictícios e utilizou o ChatGPT para que ele orientasse esse paciente, para que ele pudesse ser o terapeuta de emergência dessa pessoa. E qual foi o resultado? A IA sugeriu, de forma enfática, um isolamento social, sugeriu privações emocionais, sugeriu que esse paciente tomasse decisões partindo de padrões inflexíveis. Se isso fosse levado a sério na vida real, esse paciente poderia ter muitos problemas com seus vínculos, com as pessoas que ama. Então, até o presente momento, é totalmente desaconselhável utilizar IA como terapia.
O futuro nós não sabemos, mas todo esse papo de que as profissões vão desaparecer, entre elas a psicologia, não é algo novo. Na década de 30, quando nasceu o gênero literário autoajuda, muitas pessoas estavam animadas percebendo que teriam acesso a esse conhecimento. E um livro é muito mais barato do que você pagar um ano de acompanhamento em um psicólogo, em um psiquiatra. Então, essa afirmação achando que uma tecnologia vai conseguir substituir toda uma profissão, é algo que não está acontecendo pela primeira vez. E depois de toda essa febre dos livros de autoajuda, como eles são vistos hoje? É necessário muita ingenuidade para uma pessoa dar mais valor para um livro de autoajuda do que a um profissional competente.