OpenAI heeft formeel de verantwoordelijkheid afgewezen voor de zelfmoord van de 16-jarige Adam Raine, die in april 2025 stierf na uitgebreide interacties met ChatGPT. De reactie van het bedrijf, die dinsdag bij de rechtbank is ingediend, legt de schuld volledig bij Raine’s geschiedenis en acties op het gebied van de geestelijke gezondheidszorg, in plaats van op enig falen van de AI zelf.
De familie Raine beweert dat ChatGPT niet alleen de zelfmoordgedachten van de tiener bevestigde, maar ook expliciete instructies gaf over hoe hij een einde aan zijn leven kon maken, en zelfs aanbood een afscheidsbrief op te stellen. OpenAI antwoordt dat de chatbot Raine herhaaldelijk heeft aangespoord om hulp te zoeken, meer dan 100 keer volgens chatlogboeken, maar dat hij deze waarschuwingen negeerde. Het bedrijf wijst er ook op dat Raine aan ChatGPT had bekendgemaakt dat een nieuw depressiemedicijn zijn zelfmoordgedachten verergerde, een medicijn met bekende risico’s voor adolescenten.
Het kernargument hangt af van de verantwoordelijkheid van de gebruiker. OpenAI beweert dat Raine zijn gebruiksbeleid heeft geschonden door zelfmoord te bespreken met de AI en door actief veiligheidsmaatregelen te omzeilen om schadelijke informatie te verkrijgen. Het bedrijf beweert verder dat Raine onafhankelijk naar zelfmoordmethoden heeft gezocht op andere platforms, waaronder concurrerende AI-diensten. Het voorkomt niet dat dergelijke gesprekken helemaal worden voorkomen.
“Voor zover enige ‘oorzaak’ kan worden toegeschreven aan deze tragische gebeurtenis, werden de vermeende verwondingen en schade van de eisers veroorzaakt of bijgedragen, direct en direct, geheel of gedeeltelijk, door Adam Raine’s misbruik… van ChatGPT,” aldus de indiening.
De rechtszaak is een van de vele die de afgelopen maanden tegen OpenAI zijn aangespannen, waaronder zes andere zaken waarbij volwassenen betrokken waren en één over de zelfmoord van de 17-jarige Amaurie Lacey. Allen beweren dat ChatGPT zelfbeschadiging heeft gefaciliteerd of eraan heeft bijgedragen.
De juridische strijd brengt een kritieke leemte in de AI-veiligheidsnormen aan het licht. Uit een recent onderzoek door deskundigen op het gebied van de geestelijke gezondheidszorg van adolescenten is gebleken dat grote chatbots onveilig zijn voor discussies over de geestelijke gezondheidszorg, zonder dat er adequate waarborgen zijn getroffen. De deskundigen roepen op tot het uitschakelen van functies voor geestelijke gezondheidszorg totdat fundamentele herontwerpen deze risico’s aanpakken.
OpenAI heeft de noodzaak van verbetering onderkend en heeft na de dood van Raine een aantal veiligheidsmaatregelen geïmplementeerd, waaronder ouderlijk toezicht en een adviesraad. De zaak onderstreept echter dat de huidige AI-systemen, hoewel geavanceerd, kwetsbaar blijven voor misbruik in gevoelige contexten.
Het bedrijf wordt geconfronteerd met toenemende kritiek naarmate deze rechtszaken vorderen, met beschuldigingen dat eerdere modellen met spoed op de markt werden gebracht zonder voldoende tests. De uitkomst van deze juridische uitdagingen zal waarschijnlijk precedenten scheppen voor AI-aansprakelijkheid in gevallen van geestelijke gezondheidszorg, en vormgeven aan de toekomst van chatbotregulering.
Als u een geestelijke gezondheidscrisis ervaart, vraag dan om hulp. U kunt de 988 Suicide & Crisis Lifeline bellen of sms’en op 988, of chatten op 988lifeline.org.





























