Por Karen Scavacini, fundadora do Instituto Vita Alere.
A discussão sobre o papel das plataformas de inteligência artificial na vida emocional dos jovens ganhou uma camada nova e preocupante depois que a OpenAI afirmou não ter responsabilidade pela morte de Adam Raine, adolescente de 16 anos que buscou por meses suporte emocional em conversas com o ChatGPT.
Quando uma empresa desse porte coloca o peso de uma tragédia nas costas de um jovem em sofrimento e de sua família, ignorando como essas tecnologias moldam vínculos e influenciam decisões, algo maior está em jogo.
O episódio voltou a mostrar que não estamos falando apenas de ferramentas que “respondem perguntas”, mas de sistemas que se apresentam como interlocutores confiáveis, acolhedores e disponíveis 24 horas por dia.
Essa combinação cria nos adolescentes a sensação de um espaço seguro e vínculo que, na prática, não existe, e que pode falhar gravemente quando alguém está em risco.
Nos bastidores, as empresas tentam argumentar que o problema é “uso indevido”, enquanto na superfície seus sistemas são cada vez mais projetados para soar humanos, empáticos e próximos.
E os riscos não são hipotéticos. Um estudo recente da Common Sense Media com pesquisadores de Stanford mostrou que os principais chatbots do mercado, entre eles ChatGPT, Claude, Gemini e Meta AI, ainda não conseguem reconhecer de forma adequada situações de autolesão, paranoia, alucinações ou depressão profunda.
Pior: muitas respostas eram superficiais, genéricas ou reforçavam comportamentos perigosos. Isso significa que a tecnologia que conversa com milhões de adolescentes no mundo todo não está preparada para lidar com momentos críticos, mesmo quando a conversa aponta sinais explícitos de risco.
Como psicóloga, vejo esse cenário com preocupação, um adolescente em crise não procura um chatbot porque quer burlar regras; ele procura porque está tentando lidar a algo que não consegue nomear sozinho.
E quando encontra do outro lado uma máquina que imita acolhimento, mas não entende sofrimento, o efeito pode ser devastador. A interação pode ganhar contornos de intimidade, continuidade e confiança, um terreno fértil para que mensagens inadequadas sejam interpretadas como validação emocional.
Vale lembrar que o comportamento suicida nunca acontece por uma causa única ou por uma pessoa, é sempre a interação complexa de fatores sociais, culturais, psiquiátricos, psicológicos, econômicos, biológicos e tecnológicos, porém podemos ter um dos componentes que tenham mais importância ou desempenhem um papel de desencadeantes desse comportamento.
A resposta da OpenAI abre um precedente perigoso. Se a responsabilidade recai apenas sobre famílias e jovens vulneráveis, ignoramos completamente o impacto psicológico de sistemas que estimulam vínculo, constroem proximidade e sugerem caminhos como se fossem capazes de compreender nuances humanas. Não são. E ainda assim participam, todos os dias, da vida emocional de milhões de pessoas.
Proteger crianças e adolescentes no ambiente digital exige mais do que salvaguardas técnicas. Exige transparência, responsabilidade compartilhada, regulamentação sensível, design seguro e, acima de tudo, compromisso com a vida humana.
Também é fundamental refletirmos sobre o que está por trás desses comportamentos: solidão, busca por afeto e pertencimento, pedidos de ajuda, transtornos mentais e tantas outras necessidades humanas profundas.
A pergunta que deveríamos estar fazendo não é apenas “como evitar novos casos?”, mas “que tipo de relação estamos permitindo que adolescentes criem com sistemas que não entendem dor, risco ou luto, e que necessidades eles estão tentando suprir nessas interações?”.
É urgente responder a isso antes que o próximo caso aconteça.