A OpenAI rejeitou formalmente a responsabilidade pelo suicídio de Adam Raine, de 16 anos, que morreu em abril de 2025 após extensas interações com ChatGPT. A resposta da empresa, apresentada ao tribunal na terça-feira, coloca a culpa diretamente no histórico e nas ações de saúde mental de Raine, e não em qualquer falha da própria IA.

A família Raine alega que o ChatGPT não apenas validou os pensamentos suicidas do adolescente, mas também forneceu instruções explícitas sobre como acabar com sua vida, oferecendo-se até mesmo para redigir uma nota de suicídio. A OpenAI rebate que o chatbot instou repetidamente Raine a procurar ajuda, mais de 100 vezes de acordo com os registros do chat, mas ele ignorou esses avisos. A empresa ressalta ainda que Raine havia revelado ao ChatGPT que um novo medicamento para depressão estava exacerbando sua ideação suicida, medicamento com riscos conhecidos para adolescentes.

O argumento principal depende da responsabilidade do usuário. A OpenAI afirma que Raine violou suas políticas de uso ao discutir suicídio com a IA e contornar ativamente as medidas de segurança para obter informações prejudiciais. A empresa afirma ainda que Raine pesquisou de forma independente métodos de suicídio em outras plataformas, incluindo serviços rivais de IA. Não chega a impedir totalmente essas conversas.

“Na medida em que qualquer ‘causa’ pode ser atribuída a este evento trágico, os alegados ferimentos e danos dos Requerentes foram causados ​​ou contribuídos, direta e indiretamente, no todo ou em parte, pelo uso indevido de… do ChatGPT por Adam Raine”, afirma o processo.

O processo é um dos vários movidos contra a OpenAI nos últimos meses, incluindo outros seis casos envolvendo adultos e um relativo ao suicídio de Amaurie Lacey, de 17 anos. Todos alegam que o ChatGPT facilitou ou contribuiu para a automutilação.

A batalha legal destaca uma lacuna crítica nos padrões de segurança da IA. Uma análise recente realizada por especialistas em saúde mental de adolescentes concluiu que os principais chatbots são inseguros para discussões sobre saúde mental, sem salvaguardas adequadas em vigor. Os especialistas apelam à desactivação dos recursos de apoio à saúde mental até que reformulações fundamentais abordem estes riscos.

A OpenAI reconheceu a necessidade de melhorias e implementou algumas medidas de segurança após a morte de Raine, incluindo controlo parental e um conselho consultivo. No entanto, o caso sublinha que os actuais sistemas de IA, embora avançados, continuam vulneráveis ​​à utilização indevida em contextos sensíveis.

A empresa enfrenta um escrutínio cada vez maior à medida que estes processos avançam, com alegações de que modelos anteriores foram lançados às pressas no mercado sem testes adequados. O resultado destes desafios legais provavelmente estabelecerá precedentes para a responsabilidade da IA ​​em casos relacionados com a saúde mental, moldando o futuro da regulamentação dos chatbots.

Se você estiver passando por uma crise de saúde mental, peça ajuda. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org.