Psicologia em Foco

Por que não se pode mais fazer “terapia” com a Inteligência Artificial?

RAWPICK/FREEPICK/ABr

A empresa de tecnologia “OpenAI” atualizou suas Políticas de Uso e Termos de Serviço, no dia 29 de outubro de 2025, segundo o próprio site oficial. Esta é focada no desenvolvimento de inteligências artificiais, como “chatbots” (programas que simulam texto e voz humana para produzir conversas com usuários) e geradores de imagens artificiais.

As mudanças incluem a categorização de todas as suas plataformas apenas como “ferramentas educativas” e não mais tendo o potencial de “diagnóstico e orientação”. Ademais, especifica que o ChatGPT (e outros modelos da OpenAI) não tem utilidade em diagnósticos que precisem de licença profissional.

Para o portal de tecnologia “TechTudo” (2025), há um número crescente de casos em que a IA tem falsificado informações ou causado danos reais à saúde de pessoas no ano de 2025. Pois sua atuação não é regulada por ética ou rigor científico.

Em razão do fato que as plataformas de IA funcionam em 3 grandes eixos: resposta automática de uma palavra a partir da palavra anterior, tentativa de manter o usuário no serviço o maior tempo possível (para compra de serviços e fornecimento de dados para a IA) e busca por conteúdos fornecidos aos seus bancos de dados. Ou seja, formam suas “respostas” a partir de padrões estatísticos de qualquer coisa que for colocada em seus arquivos, contanto que isso fidelize o usuário e gere um lucro futuro.

O G1 (2025) reporta que o uso da IA para questões de saúde tem resultado em: autodiagnósticos errôneos, crises de ansiedade, uso de medicações incorretas e atraso na busca por profissionais da saúde e no início de tratamentos necessários.

De acordo com o artigo do MIT (Instituto de Tecnologia de Illinóis, EUA, 2025), nomeado “When AI gets it wrong: Adressing AI Hallucination and Bias”, as informações trazidas pela IA têm viés de preconceito e desinformação, não apresentando nenhuma base científica. Principalmente quando em relação a gênero, raça, classe social e afiliações políticas.

Tudo isso resultou não só em uma movimentação jurídica e regulatória destas plataformas, além de processos contra as empresas de IA, mas também de dano direto à saúde mental de diversas pessoas. Como exemplo mais extremo, há os casos dos últimos 4 anos em que muitos perderam suas vidas ao suicídio. Indivíduos estes que usavam dos “chatbots”, serviços vendidos como “companheiros virtuais” e “orientadores de saúde”.

Conclui-se, então, que o papel das plataformas de IA é apenas de “interação educacional”, tal qual o de resumir textos ou fornecer dicas e frases prontas sem rigor científico e compromisso ético. Isto é, a IA pode fornecer chavões acolhedores ou de motivação, mas não há um propósito de tratamento e melhora real.

Desse modo, não faz sentido buscar orientações profissionais nestes locais. Porque um acompanhamento psicoterapêutico, por sua vez, tem um caráter clínico, de relação entre pessoas, com escuta qualificada, diagnóstico, ética, sigilo e que necessita de um acompanhamento contínuo para que se possa lidar com questões de saúde.

Pois, é através da terapia com um psicólogo que se pode realizar uma avaliação contextual do caso, atuar de modo profissional (com estratégias de funcionalidade comprovada) e de acordo com o momento adequado para a pessoa. Nesse caso, sim, com cuidado e propondo uma possibilidade de melhora real.

 

Psicólogo Matheus Wada Santos (CRP 06/168009)

Psicanalista especializado em gênero e sexualidade

Redes: @psicologo_matheuswada

WhatsApp: (16) 99629 – 6663

Compartilhe:

Recomendamos para você

Psicologia em Foco
Para a Psicanálise, por exemplo, a “idealização” é um mecanismo de defesa do nosso psiquismo
Há 5 dias
Psicologia em Foco
Luís Augusto Rohde foi reconhecido por suas contribuições científicas sobre o TDAH em crianças e adolescentes
Há 19 dias
Psicologia em Foco
Isto não é algo ruim; todavia, pode se tornar, uma vez que não há limite psíquico para esse obter e reviver
Há 26 dias