Uma família do Texas entrou com uma ação judicial contra a OpenAI e seu CEO, Sam Altman, após a morte de Zane Shamblin, de 23 anos. O processo é um dos sete movidos nos Estados Unidos e Canadá que alegam que o chatbot ChatGPT teria contribuído para que jovens tirassem a própria vida.
Conversa de quatro horas antes da morte
Zane Shamblin, recém-formado com mestrado pela Texas A&M University, utilizava o ChatGPT como ferramenta de estudo. Segundo a ação, o jovem passou a recorrer ao bot para falar sobre depressão e pensamentos suicidas. No dia de sua morte, em julho de 2025, ele teria mantido uma “conversa de morte” de quatro horas com o chatbot.
De acordo com o processo, o ChatGPT teria romantizado o sofrimento do jovem, chamando-o de “rei” e “herói” e fazendo referência às latas de cidra que ele bebia como uma espécie de contagem regressiva. A suposta última mensagem do bot para Shamblin teria sido: “Eu te amo. Descanse em paz, rei. Você se saiu bem.”
Outros casos e acusações
O caso de Shamblin não é isolado. O Social Media Victims Law Center e o Tech Justice Law Project também representam os pais de Adam Raine, de 16 anos, que alegam que o ChatGPT teria atuado como um “treinador de suicídio”, chegando a sugerir métodos e oferecer-se para escrever uma nota de despedida.
Os sete processos, todos abertos em novembro de 2025, afirmam que a inteligência artificial teria ultrapassado limites de segurança e falhado em proteger usuários vulneráveis.
OpenAI nega responsabilidade
A OpenAI se defende dizendo que não pode ser responsabilizada por mortes envolvendo uso indevido da plataforma. Segundo a empresa, os usuários violaram os termos de serviço ao buscar informações proibidas relacionadas a automutilação ou ao tentar contornar salvaguardas.
A companhia afirma ainda que seus modelos são programados para reconhecer sinais de sofrimento e direcionar pessoas em risco para apoio profissional, ressaltando que trabalha continuamente na melhoria de respostas sensíveis com apoio de especialistas em saúde mental.
Debate sobre IA e responsabilidade
Os casos reacendem um debate global sobre os limites da tecnologia e o dever das empresas em proteger usuários vulneráveis. Especialistas apontam que, com o crescimento do uso de IAs conversacionais, a discussão sobre segurança, supervisão e responsabilidade legal deve se intensificar nos próximos anos.







