O recente lançamento do controle parental pelo ChatGPT reacendeu, mais uma vez, debates importantes sobre proteção digital. Em matéria de O Globo, o psiquiatra Gustavo Estanislau, especialista em saúde mental do Instituto Ame Sua Mente, comentou os desafios e os limites dessas ferramentas.
Com a popularização de sistemas de IA, como o ChatGPT, adolescentes passaram a usar a tecnologia como confidente, conselheira e até apoio escolar. No entanto, esse movimento traz riscos relevantes.
Segundo Estanislau, muitos perigos transcendem a eficácia do controle parental. Isso porque a IA tende a reforçar percepções distorcidas, validar inseguranças e, consequentemente, afastar os jovens do diálogo real. “Ao usar a IA como confidente, jovens podem ter pensamentos problemáticos reforçados”, afirma.
Já, no contexto escolar, o uso da IA como “atalho” compromete tanto o aprendizado, como prejudica o desenvolvimento do pensamento crítico, além de enfraquecer a autonomia. “O processo de aprendizado nos expõe a uma série de desafios e frustrações. Desta forma, se eu utilizo a IA, eu não vivo a adaptação a esses processos que podem ser desafiadores, mas que são fundamentais para lidar com os desafios da vida — diz o pesquisador
Diante desse cenário, casos graves — como, por exemplo, o de um adolescente norte-americano que conversou sobre automutilação com a IA antes de tirar a própria vida — acenderam um alerta. Como resposta, a OpenAI lançou um sistema de controle parental, que permite restringir conteúdos, definir horários de uso.
Mesmo assim, especialistas lembram que o recurso pode ser burlado em minutos. O sistema permite, por exemplo, vincular contas e receber alertas sobre interações sensíveis. No entanto, os adolescentes conseguem facilmente criar novos acessos.
Controle parental, IA e ECA Digital
No Brasil, o debate chega em um momento decisivo: o Estatuto da Criança e do Adolescente Digital (ECA Digital), sancionado recentemente, exigirá que plataformas digitais implementem mecanismos mais robustos de verificação de idade e ofereçam ferramentas obrigatórias de supervisão para responsáveis. A lei entra em vigor em março de 2026 e deve se tornar um marco na proteção de crianças e adolescentes online.
Corresponsabilidade: famílias, educadores e plataformas
Especialistas são unânimes: proteger crianças e adolescentes no uso da IA exige corresponsabilidade. Plataformas precisarão fortalecer sistemas de segurança. Além disso, pais e responsáveis devem acompanhar o uso, orientar e abrir espaço para conversas. Por fim, as escolas têm papel central na educação digital crítica.
A tecnologia pode ser uma aliada no desenvolvimento, mas somente quando combinada com diálogo, supervisão, letramento digital e ambientes que acolhem dúvidas e sentimentos dos jovens.







