Psicologia e a IA (inteligência artificial generativa)
No campo da psicologia, por exemplo, há empresas que usam essas I.A.s no formato de “chatbots”

As inteligências artificiais generativas, como o ChatGPT ou Character.ai, se tornaram famosas ao substituírem (à sua maneira) o trabalho humano em algumas tarefas, seja em explicar conceitos de forma simples ou até conversar com o usuário.
E, é fato de que, segundo a OMS (Organização Mundial da Saúde), o número de diagnósticos de transtornos mentais vem crescendo nos últimos anos especialmente após a pandemia do Covid-19. Ao mesmo tempo que muitas pessoas não podem ou não sabem como acessar os serviços de cuidado nessa área.
Mas, será que “qualquer” cuidado é um bom cuidado?
No campo da psicologia, por exemplo, há empresas que usam essas I.A.s no formato de “chatbots” (robôs de conversa, em tradução livre). Isso significa que: uma vez que uma pessoa chega em momento de crise a um site, buscando por ajuda, ela será acolhida por mensagens prontas de um chat de inteligência artificial.
Há também os casos dos aplicativos de “terapia”, tal qual o “Wysa” ou o “WoeBot”, que fornecem I.A.s que se propõem como “treinadoras e motivadoras” de comportamentos humanos e chamam a atenção por serem baratas e disponíveis 24h.
O problema é: estas repostas de I.A.s podem ser geradas a partir de quaisquer modelos prontos encontrados nas redes. Não necessariamente seguindo um padrão, cuidado ou ética. E, segundo pesquisas, nem mesmo sendo algo que comprovadamente acolhe ou ajuda quem está em sofrimento.
Além disso, os dados das interações com estes chats, costumeiramente são analisados posteriormente (rompendo confiança, confidencialidade e sigilo) para criar uma estratégia de mercado voltada para a pessoa em crise, que é vista apenas como um “cliente”. Dessa forma, o que uma pessoa fala nesses chats influencia os tipos de anúncio on-line que ela recebe.
Outra questão que faz os chats problemáticos e populares é que os seus usuários relatam: “querer uma pessoa disponível 24h”, “o chat não sabe que eu estou mentindo”, “a I.A. pode ser quem eu quiser que seja” (destacam-se papéis românticos), ou “ela fala o que eu quero ouvir”.
Isto demonstra que as pessoas no uso dessas I.A.s estão buscando uma relação distorcida, que não é a terapêutica e nem traz uma melhora real, afinal, buscam uma relação de alguém que vai amá-los incondicionalmente, a todo momento e ser o que eles quiserem que ela seja. É algo fantasioso e controlador. E por isso é tão atrativo.
Desta maneira, ao avaliarmos questões de saúde, ainda se faz necessário um processo diagnóstico e tratamento humano, pois, quando se fala de uma relação humana, se analisam: questões culturais, de história de vida, ambientais, de limites, de relações pessoais e de como a pessoa processa todas essas experiências.
Portanto, em casos de busca por cuidado em saúde mental, é importante o papel de um psicólogo, já que, na psicoterapia, a pessoa pode ter um acolhimento e tratamento humano, personalizado, que respeite seu sigilo, confidencialidade, limites e confiança.
Psicólogo Matheus Wada Santos (CRP 06/168009)
Psicanalista especializado em gênero e sexualidade
Redes: @psi_matheuswada
WhatsApp: (16) 99629 – 6663
Email: [email protected]