OpenAI ha formalmente respinto la responsabilità per il suicidio del sedicenne Adam Raine, morto nell’aprile 2025 dopo ampie interazioni con ChatGPT. La risposta dell’azienda, depositata in tribunale martedì, attribuisce la colpa direttamente alla storia e alle azioni di salute mentale di Raine, piuttosto che a qualsiasi fallimento dell’intelligenza artificiale stessa.

La famiglia Raine sostiene che ChatGPT non solo ha convalidato i pensieri suicidi dell’adolescente, ma ha anche fornito istruzioni esplicite su come porre fine alla sua vita, offrendosi persino di redigere una nota di suicidio. OpenAI ribatte che il chatbot ha ripetutamente esortato Raine a chiedere aiuto, più di 100 volte secondo i registri della chat, ma ha ignorato questi avvertimenti. L’azienda sottolinea inoltre che Raine aveva rivelato a ChatGPT che un nuovo farmaco contro la depressione stava esacerbando la sua idea suicida, un farmaco con rischi noti per gli adolescenti.

L’argomento principale dipende dalla responsabilità dell’utente. OpenAI sostiene che Raine ha violato le sue politiche di utilizzo discutendo di suicidio con l’IA e aggirando attivamente le misure di sicurezza per ottenere informazioni dannose. La società afferma inoltre che Raine ha cercato in modo indipendente metodi di suicidio su altre piattaforme, compresi i servizi di intelligenza artificiale rivali. Non riesce a impedire del tutto tali conversazioni.

“Nella misura in cui qualsiasi ‘causa’ può essere attribuita a questo tragico evento, le presunte lesioni e danni dei querelanti sono stati causati o hanno contribuito, direttamente e prossimamente, in tutto o in parte, dall’uso improprio di ChatGPT da parte di Adam Raine”, si legge nel documento.

La causa è una delle numerose intentate contro OpenAI negli ultimi mesi, inclusi altri sei casi che coinvolgono adulti e uno riguardante il suicidio della diciassettenne Amaurie Lacey. Tutti sostengono che ChatGPT abbia facilitato o contribuito all’autolesionismo.

La battaglia legale evidenzia una lacuna critica negli standard di sicurezza dell’IA. Una recente analisi condotta da esperti di salute mentale degli adolescenti ha rilevato che i principali chatbot non sono sicuri per le discussioni sulla salute mentale, senza adeguate garanzie. Gli esperti chiedono di disabilitare le funzionalità di supporto per la salute mentale fino a quando le riprogettazioni fondamentali non affronteranno questi rischi.

OpenAI ha riconosciuto la necessità di miglioramento e ha implementato alcune misure di sicurezza dopo la morte di Raine, inclusi il controllo parentale e un consiglio consultivo. Tuttavia, il caso sottolinea che gli attuali sistemi di intelligenza artificiale, sebbene avanzati, rimangono vulnerabili ad abusi in contesti sensibili.

L’azienda si trova ad affrontare un controllo crescente man mano che queste cause legali avanzano, con accuse secondo cui i modelli precedenti sarebbero stati immessi sul mercato senza test adeguati. L’esito di queste sfide legali creerà probabilmente dei precedenti per la responsabilità dell’IA nei casi legati alla salute mentale, plasmando il futuro della regolamentazione dei chatbot.

Se stai vivendo una crisi di salute mentale, chiedi aiuto. Puoi chiamare o inviare un messaggio al 988 Suicide & Crisis Lifeline al numero 988 o chattare su 988lifeline.org.