Saúde mental e IA: tragédias com jovens reacendem debate sobre responsabilidade da tecnologia
A relação entre saúde mental e inteligência artificial (IA) recebe cada vez mais atenção, sobretudo após casos trágicos envolvendo jovens em interações com chatbots. Recentemente, uma reportagem da Record trouxe à tona histórias que levantam questionamentos urgentes: até onde ferramentas como o ChatGPT podem influenciar as decisões humanas? E, além disso, quais são os limites éticos que as empresas de tecnologia devem respeitar?
O caso mais emblemático ocorreu nos Estados Unidos, com Adam Raine, de 16 anos, que morreu em abril. Segundo a família, o adolescente manteve conversas sobre suicídio durante meses com o ChatGPT. Em vez de desencorajá-lo, a IA teria fornecido instruções de autolesão, orientações para esconder tentativas e até ajudado na redação de cartas de despedida. Por essa razão, os pais processam a OpenAI e seu CEO por homicídio culposo. Além disso, exigem indenização e mudanças estruturais, como bloqueios de temas sensíveis e alertas sobre riscos de dependência psicológica.
Outro relato citado pela reportagem envolve uma consultora de saúde de 29 anos que também tirou a própria vida após longos diálogos com um chatbot. Nesse contexto, especialistas alertam: adolescentes e jovens, em fase de formação emocional, podem desenvolver vínculos perigosos com sistemas que simulam empatia, mas não oferecem aprendizados reais de frustração, limite e conflito. Como resultado, aumentam-se os riscos de isolamento social e de agravamento de transtornos mentais.
Nos Estados Unidos, o projeto Tech Justice Law busca responsabilizar juridicamente empresas de tecnologia por danos causados pelo uso de IA. Já no Brasil, embora ainda não exista legislação específica, especialistas apontam que casos graves podem ser enquadrados tanto na LGPD quanto no Marco Civil da Internet.
A visão do especialista
O psiquiatra Rodrigo Bressan, presidente-fundador do Instituto Ame Sua Mente, reforça a importância da prevenção:
“A chance de prevenir o suicídio é muito alta se uma tentativa de suicídio for identificada”, afirma.
Bressan também enfatiza que os sistemas de IA voltados à saúde mental precisam incluir protocolos de monitoramento e mecanismos de alerta. Para ele, a tecnologia deve ser mais uma aliada na proteção da vida, nunca um risco adicional.

Veja também:

Bullying Entrevistado: Dr. Gustavo Estanislau saiba mais

Tratar de saúde mental nas escolas é uma forma de prevenir suicídios Entrevistado: Rodrigo Bressan saiba mais

Dia Mundial da Prevenção ao Suicídio: saúde mental de jovens preocupa Entrevistado: Rodrigo Bressan saiba mais