Terapia com IA: riscos e limites

Falar com um robô pode soar esquisito. Ainda que cause estranhamento, cada vez mais pessoas testam a chamada “terapia com IA” para desabafar, organizar pensamentos ou buscar conselhos quando estão ansiosas, tristes ou sobrecarregadas. Em grande parte, isso ocorre porque a ferramenta está disponível 24 horas por dia, responde rapidamente e adota um tom acolhedor, o que reforça seu apelo de praticidade e sensação de amparo. Ao mesmo tempo, para quem sente vergonha de pedir ajuda, essa conversa pode parecer um primeiro passo.

No entanto, essa facilidade não compensa os riscos que envolvem o uso da Inteligência Artificial, como por exemplo o chatGPT, para psicoterapia e diagnósticos. Embora a IA possa gerar respostas úteis e bem estruturadas, também pode apresentar informações incorretas com convicção, não assume responsabilidade clínica, desconhece o histórico individual e não substitui o vínculo terapêutico humano. Além disso, há o risco de a pessoa adiar a busca por ajuda profissional por sentir que já “está se cuidando”.

Nos últimos meses, esse debate ganhou força no Brasil e no mundo. Neste contexto, entidades como a American Psychological Association (APA) alertam para os riscos de depender de IA para psicoterapia ou tratamento psicológico. Por sua vez, a Organização Mundial da Saúde (OMS) destaca, em seus guias sobre IA na saúde, preocupações relacionadas à segurança, vieses, privacidade e necessidade de supervisão. Assim, o tema deixou de ser curiosidade tecnológica e passou a integrar discussões de saúde pública e letramento digital.

Com isso em mente, vale compreender:

  • para que a IA pode ser útil;

  • o que ela não pode prometer;

  • onde estão os principais riscos, especialmente para adolescentes e pessoas vulneráveis.

O que as pessoas chamam de “terapia com IA”

Na prática, o termo costuma envolver situações como:

  • desabafo e acolhimento emocional;

  • pedidos de conselho (“o que faço com meu trabalho/relacionamento?”);

  • testes, interpretações e rótulos  (“será que eu tenho…?”);

  • solicitação de técnicas prontas (respiração, diário emocional, rotinas);

  • simulação de uma sessão de terapia estruturada (como se fosse um psicólogo).

Em resumo, muitas pessoas utilizam a IA como se fosse um espaço terapêutico. Contudo, linguagem empática não equivale a função clínica. Quando o assunto é saúde — física ou mental — é essencial distinguir informação de tratamento. Ou seja, existe uma distância importante entre oferecer informação geral (psicoeducação) e tomar uma decisão clínica, que envolve diagnóstico, definição de conduta e planejamento de tratamento.

Portanto, aquilo que até pode ajudar a organizar ideias não serve, automaticamente, para definir um diagnóstico nem para substituir a psicoterapia.

 

Principais riscos da terapia com IA

1) Respostas convincentes, mas incorretas

Modelos de IA podem oferecer explicações ou recomendações sem respaldo científico. O problema não é apenas cometer um erro, mas apresentá-lo como se fosse uma informação confiável. No dia a dia, isso pode levar a pessoa a acreditar que está tudo bem quando os sintomas são graves, a adotar estratégias ineficazes — ou até prejudiciais — e a assumir um rótulo diagnóstico com base em poucas informações. Por essa razão, vale lembrar: respostas bem escritas não substituem uma avaliação clínica adequada.

2) Autodiagnóstico e rótulos apressados

Perguntas como “tenho depressão?” ou “tenho TDAH?” podem gerar listas de sintomas que parecem combinar com o que você sente. Porém, identificar alguns sinais não é suficiente para confirmar um transtorno.

O diagnóstico exige avaliação criteriosa de diferentes aspectos, como tempo de duração, intensidade dos sintomas e impacto na vida cotidiana — na escola, no trabalho, nas relações e na rotina. Além disso, diferentes condições podem apresentar manifestações semelhantes, o que torna a análise ainda mais complexa.

Basear-se apenas em uma lista pode resultar em conclusões precipitadas e atrasar o cuidado adequado. Diante disso, a medida mais segura é buscar avaliação com um profissional de saúde qualificado.

Um exemplo recorrente de autodiagnóstico associado ao uso da internet envolve o TDAH. Se quiser se aprofundar no tema, vale a leitura abaixo:

TDAH e o fenômeno do autodiagnóstico nas redes sociais

 

3) Dependência emocional e muleta invisível

A IA está sempre disponível e responde de forma compreensiva. Nesse cenário, tende a parecer um recurso rápido como terpia ou para aliviar desconfortos emocionais. À primeira vista, o uso pode parecer apenas uma questão de conveniência. No entanto, a APA alerta para efeitos não intencionais e riscos, incluindo desenvolvimento de relações pouco saudáveis com chatbots, isolamento social e ausência de evidência científica e regulação suficientes nesse campo.

Eu e o Outro: A importância da conexão para a saúde mental

 

4) Privacidade e exposição de dados sensíveis

Relatos sobre saúde mental costumam envolver informações sensíveis, como histórias pessoais, traumas, conflitos familiares e questões relacionadas à sexualidade. Ao serem compartilhados em ambientes digitais, esses dados podem envolver riscos de armazenamento inadequado ou uso indevido, a depender do serviço utilizado e das configurações de privacidade.

Paralelamente, a Organização Mundial da Saúde (OMS) enfatiza que governança e proteção de dados são pilares éticos essenciais no uso de tecnologias em saúde. Por isso, vale uma regra prática: evite inserir informações que você não contaria em público, como nomes, endereços, escola, detalhes identificáveis de terceiros ou dados médicos.

5) Falta de manejo clínico em situações delicadas

Um profissional de saúde avalia risco, constrói um plano de cuidado e assume responsabilidade ética pelo acompanhamento. Já a IA não garante esse manejo estruturado. Assim, especialmente em contextos de maior vulnerabilidade, o suporte humano qualificado é indispensável.

Então usar IA é sempre ruim?

Não. A questão mais adequada é: para qual finalidade a ferramenta está sendo utilizada?

A IA pode funcionar como apoio em atividades específicas, como:

  • organizar rotinas e tarefas;

  • estruturar pensamentos;

  • compreender conceitos básicos a partir de fontes confiáveis.

Nesses casos, o uso está voltado para organização e aprendizagem — não para substituição de cuidado profissional.

 

Recomendações especiais para pais, educadores e cuidadores

Se um adolescente está usando IA para desabafar

Quando um adolescente recorre a chatbots para falar sobre sentimentos, isso pode indicar que ele está buscando um espaço de escuta — mesmo que digital. Nesses casos, a forma como os adultos reagem faz diferença.

Antes de tudo, evite broncas ou humilhações. Reações muito críticas tendem a aumentar a vergonha e a encerrar o diálogo. Procure compreender o que ele ou ela está buscando: acolhimento, informação ou companhia para momentos de solidão. Muitas vezes, o uso da IA sinaliza uma necessidade emocional que ainda não encontrou espaço adequado.

Além disso, ofereça alternativas humanas e acessíveis, como conversa em casa, apoio na escola ou a busca por ajuda de um profissional de saúde mental, quando necessário. Também é importante estabelecer limites claros de privacidade e tempo de uso, explicando as razões de forma transparente.

Dessa forma, você acolhe sem reforçar a vergonha e preserva a proteção necessária.

 

Se a escola percebe que alunos usam IA como terapia

Se a escola identificar estudantes recorrendo à terapia com IA como espaço de desabafo ou orientação emocional, é preciso tratar o tema de forma educativa e responsável.

Explique, por exemplo, a diferença entre terapia com IA, psicoeducação (busca por informação geral) e tratamento em saúde mental. Ao mesmo tempo, crie canais seguros de acolhimento dentro da escola, para que os alunos saibam onde procurar ajuda humana. Também é importante orientar as famílias sem alarmismo, oferecendo informação clara e equilibrada. Assim, a escola passa a integrar a solução.

Por fim, vale lembrar: sofrimento emocional não se resolve com respostas automáticas. Saúde mental exige cuidado responsável, vínculo humano e acompanhamento adequado.

Leia também:

Como buscar o equilíbrio entre corpo e mente?

Telas fazem mal às crianças e adolescentes?

Dia Mundial do Amor: por que os vínculos fazem tão bem para saúde

 

Newsletter

Assine a newsletter e receba conteúdos qualificados sobre saúde mental no seu e-mail.
Faça parte desse movimento #amesuamente

    Nos diga o tipo de conteúdo que tem interesse:

    © 2023 por Ame Sua Mente

    Ame sua mente
    logo_l

    ©2023 por Ame Sua Mente