OpenAI oficiálně odmítla odpovědnost za sebevraždu 16letého Adama Reina, který zemřel v dubnu 2025 po dlouhé době komunikace s ChatGPT. Odpověď společnosti, podaná v úterý k soudu, klade vinu pouze na historii a činy Raina v oblasti duševního zdraví, spíše než na jakékoli nedostatky AI.
Rainova rodina tvrdí, že ChatGPT nejen potvrdil sebevražedné myšlenky teenagera, ale také poskytl výslovné pokyny, jak ukončit svůj život, dokonce navrhl, aby napsal sebevražedný dopis. OpenAI kontruje tím, že chatbot naléhal na Raina, aby získal pomoc více než 100krát, podle protokolů chatu, ale on tato varování ignoroval. Společnost také poukazuje na to, že Raine řekl ChatGPT, že nový lék na depresi zhoršuje jeho sebevraždu, lék se známým rizikem pro teenagery.
Klíčový argument se točí kolem odpovědnosti uživatele. OpenAI tvrdí, že Raine porušila své podmínky služby tím, že diskutovala o sebevraždě AI a aktivně obcházela bezpečnostní opatření, aby získala škodlivé informace. Společnost dále uvádí, že Rain nezávisle hledal sebevražedné metody na jiných platformách, včetně konkurenčních služeb AI. Nesouhlasí však s úplným zákazem takových rozhovorů.
„V rozsahu, v jakém lze této tragické události přičíst jakoukoli ‚příčinu‘, údajná zranění a škody žalobců byly způsobeny nebo k nim přímo a přímo, zcela nebo částečně, přispělo zneužití…ChatGPT Adamem Reinem,“ stojí v prohlášení.
Žaloba je jednou z několika podaných proti OpenAI v posledních měsících, včetně šesti dalších případů týkajících se dospělých a jednoho zahrnujícího sebevraždu 17leté Amauri Lacey. Všichni tvrdí, že ChatGPT přispěl k sebepoškozování nebo jej zhoršil.
Právní boj poukazuje na kritickou mezeru v bezpečnostních standardech AI. Nedávná recenze expertů na duševní zdraví pro mladistvé zjistila, že běžní chatboti nejsou bezpeční pro diskusi o duševním zdraví, protože postrádají adekvátní záruky. Odborníci požadují, aby byly funkce podpory duševního zdraví vypnuty, dokud nebudou provedeny zásadní změny k řešení těchto rizik.
OpenAI rozpoznala potřebu vylepšení a zavedla některá bezpečnostní opatření po Rainově smrti, včetně rodičovské kontroly a poradního výboru. Případ však zdůrazňuje, že moderní systémy umělé inteligence jsou navzdory své sofistikovanosti zranitelné vůči zneužití v citlivých kontextech.
Společnost čelí rostoucí kontrole, jak se tyto soudní spory posouvají vpřed, s obviněními, že dřívější modely byly urychleně uvedeny na trh bez řádného testování. Výsledek těchto právních sporů pravděpodobně vytvoří precedens pro odpovědnost za umělou inteligenci v případech duševního zdraví, což bude formovat budoucnost regulace chatbotů.
Pokud trpíte krizí duševního zdraví, vyhledejte pomoc. Můžete zavolat nebo poslat SMS na linku 988 Suicide & Crisis Lifeline nebo chatovat online na 988lifeline.org.
