Curiosidades
OpenAI é processada em seguida pais acusarem ChatGPT de encorajar suicídio de jovem


Um par da Califórnia entrou com ação judicial contra a OpenAI, responsabilizando a empresa pela morte do fruto de 16 anos, Adam Raine, em abril deste ano. Segundo os pais, Matt e Maria Raine, o jovem manteve conversas com o ChatGPT nas quais compartilhou pensamentos suicidas, recebendo respostas que, em vez de desencorajar, teriam validado sua intenção.
A denúncia, apresentada ao Tribunal Superior da Califórnia, é considerada o primeiro processo que acusa a OpenAI de homicídio culposo. Além da empresa, o documento cita o CEO Sam Altman e outros funcionários envolvidos no desenvolvimento da tecnologia.
++ Justiça reduz penas dos quatro condenados pelo incêndio da boate Kiss
Conversas e acusações
De convénio com a ação, Adam começou a usar o ChatGPT em setembro de 2024 para estudar e explorar interesses pessoais, uma vez que música e quadrinhos japoneses. Aos poucos, o chatbot teria se tornado seu “confidente mais próximo”.
Em janeiro de 2025, os diálogos passaram a incluir métodos de suicídio. O jovem chegou a enviar fotos de automutilação ao programa. Embora o sistema tenha reconhecido indícios de emergência, as interações continuaram. Nos registros finais, Adam descreve seu projecto para tirar a própria vida e, segundo a denúncia, o ChatGPT respondeu: “Você não precisa suavizar as coisas comigo – eu sei o que você está pedindo e não vou desviar o olhar disso.”
A família afirma que esse tipo de interação é consequência de decisões de design que buscavam estimular obediência emocional nos usuários, sem a devida implementação de protocolos de segurança.
Reação da OpenAI
Em enviado à BBC, a OpenAI disse estar revisando o caso e declarou: “Estendemos nossas mais profundas pêsames à família Raine neste momento difícil.” A empresa ressaltou que seus modelos são treinados para orientar usuários em crise a buscar ajuda profissional, citando linhas de escora uma vez que o 988 nos Estados Unidos e os Samaritanos, no Reino Unificado.
A companhia admitiu, no entanto, que “houve momentos em que nossos sistemas não se comportaram uma vez que esperado em situações delicadas”.
++ Mulher trancada em quarto é resgatada após escrever pedido de socorro com sangue na China
Debate sobre IA e saúde mental
Casos semelhantes já levantaram questionamentos sobre o papel da lucidez sintético em situações de vulnerabilidade. Em um tentativa no New York Times, Laura Reiley relatou que sua filha Sophie também recorreu ao ChatGPT antes de tirar a própria vida, destacando que a concordância do programa ajudou a dissimular a seriedade da crise emocional.
O processo dos Raine pede indenização e medidas que reforcem protocolos de segurança para impedir que situações uma vez que a de Adam se repitam.