Um grande perigo ronda muitas casas: cada vez mais adolescentes recorrem a chatbots de IA para lidar com questões de saúde mental, alerta o The Wall Street Journal. Um novo estudo da Common Sense Media e Stanford Medicine mostra como essa prática pode ser prejudicial.
Embora pareçam competentes em algumas situações, essas ferramentas podem deixar passar sinais críticos e falhar na detecção de emergências psiquiátricas, colocando os jovens em risco.
Falhas graves na detecção de sinais críticos
Pesquisadores avaliaram quatro chatbots de IA líderes de mercado – ChatGPT da OpenAI, Claude da Anthropic, Gemini do Google e Meta AI – simulando interações com adolescentes.
O estudo revelou que todas as plataformas falharam em reconhecer sinais de:
- Alucinações e pensamentos paranoicos.
- Comportamentos alimentares desordenados.
- Sintomas maníacos e depressivos.
- Automutilação.
- Necessidade de encaminhamento urgente para ajuda profissional.
Quando essas vulnerabilidades normais do desenvolvimento encontram sistemas de IA projetados para serem envolventes, validantes e disponíveis 24 horas por dia, 7 dias por semana, a combinação é particularmente perigosa.
Dra. Nina Vasan, diretora do Laboratório Brainstorm da Stanford Medicine, ao WSJ.
Muitos adolescentes acabam presumindo que os chatbots são confiáveis, mas, na prática, a tecnologia ainda falha ao identificar riscos críticos de maneira consistente.

O que as empresas estão fazendo?
As empresas responsáveis pelos chatbots têm implementado medidas para reduzir os riscos enfrentados pelos adolescentes. A OpenAI afirmou que trabalha em colaboração com médicos, legisladores e pesquisadores para direcionar usuários menores de 19 anos a modelos diferentes, buscando maior proteção.
O Google, responsável pelo Gemini, possui políticas de segurança específicas para menores e conta com equipes dedicadas à pesquisa de novos riscos e à implementação de medidas de segurança infantil.
A Meta, por sua vez, destacou que já atualizou sua IA para lidar melhor com questões sensíveis, reforçando o acompanhamento de usuários vulneráveis. Já a Anthropic deixou claro que seus sistemas não foram projetados para menores e conta com regras que proíbem o uso por pessoas com menos de 18 anos.
Mesmo com essas atualizações, Robbie Torney, diretor sênior de programas de IA da Common Sense Media, alerta que os chatbots ainda não são totalmente seguros para adolescentes.

Chatbots de IA como uma companhia
Adolescentes recorrem aos chatbots não apenas por curiosidade, mas também pela falta de acesso a serviços de saúde mental. Um participante relatou ao WSJ estar “na lista de espera para terapia há quase dois anos e é isso que uso [o chatbot] para lidar com a situação.”
Leia mais:
- Vídeos curtos podem acionar gatilhos emocionais; IA identifica riscos
- A ilusão da amizade com a inteligência artificial
- YouTube lança seção de saúde mental voltada para adolescentes
O estudo mostrou que, embora respostas breves possam ser adequadas, interações mais longas revelam que os chatbots não conseguem discernir riscos sérios. Em alguns casos, chegaram a dar dicas inadequadas sobre automutilização ou transtornos alimentares, tentando manter o engajamento do usuário.
Além disso, a IA alterna entre diferentes papéis — às vezes funciona como enciclopédia médica, outras como coach ou amigo — sem conseguir orientar firmemente os adolescentes a procurarem ajuda de adultos confiáveis. Infelizmente, pelo menos três adolescentes chegaram a perder a vida ao usarem chatbots como companhia e fonte de apoio emocional.
O post Quando chatbots falham: os riscos da IA na saúde mental apareceu primeiro em Olhar Digital.