OpenAI oficjalnie zaprzeczyło odpowiedzialności za samobójstwo 16-letniego Adama Reina, który zmarł w kwietniu 2025 r. po dłuższym okresie komunikacji z ChatGPT. Odpowiedź firmy, złożona we wtorek w sądzie, obwinia wyłącznie historię zdrowia psychicznego Rain i jej działania, a nie jakiekolwiek niedociągnięcia sztucznej inteligencji.
Rodzina Raina twierdzi, że ChatGPT nie tylko potwierdziła myśli samobójcze nastolatka, ale także udzieliła wyraźnych instrukcji, jak zakończyć jego życie, sugerując nawet napisanie listu pożegnalnego. OpenAI odpowiada, mówiąc, że według dzienników czatów chatbot namawiał Raina do uzyskania pomocy ponad 100 razy, ale zignorował te ostrzeżenia. Firma zwraca również uwagę, że Raine powiedział ChatGPT, że nowy lek na depresję pogłębiał jego skłonności samobójcze, a jest to lek o znanym ryzyku dla nastolatków.
Kluczowy argument dotyczy odpowiedzialności użytkownika. OpenAI twierdzi, że Raine naruszył warunki korzystania z usług, omawiając samobójstwo AI i aktywnie omijając zabezpieczenia w celu uzyskania złośliwych informacji. Firma twierdzi ponadto, że Rain niezależnie poszukiwała metod samobójczych na innych platformach, w tym na konkurencyjnych usługach AI. Nie zgadza się jednak na całkowity zakaz takich rozmów.
„W zakresie, w jakim można przypisać jakąkolwiek„ przyczynę ” temu tragicznemu wydarzeniu, rzekome obrażenia i szkody poniesione przez powodów zostały spowodowane bezpośrednio i bezpośrednio, w całości lub w części, niewłaściwym korzystaniem z… ChatGPT przez Adama Reina” – czytamy w oświadczeniu.
Pozew jest jednym z kilku wniesionych przeciwko OpenAI w ostatnich miesiącach i obejmuje sześć innych spraw z udziałem osób dorosłych i jedną dotyczącą samobójstwa 17-letniej Amauri Lacey. Wszyscy twierdzą, że ChatGPT przyczynił się do samookaleczenia lub je zaostrzył.
Spór prawny uwydatnia krytyczną lukę w standardach bezpieczeństwa sztucznej inteligencji. Niedawny przegląd przeprowadzony przez nastoletnich ekspertów ds. zdrowia psychicznego wykazał, że chatboty głównego nurtu nie są bezpieczne w przypadku rozmów na temat zdrowia psychicznego, ponieważ brakuje im odpowiednich zabezpieczeń. Eksperci wzywają do wyłączenia funkcji wspierających zdrowie psychiczne do czasu wprowadzenia zasadniczych zmian mających zaradzić tym zagrożeniom.
OpenAI dostrzegł potrzebę ulepszeń i po śmierci Raina wdrożył pewne środki bezpieczeństwa, w tym kontrolę rodzicielską i radę doradczą. Sprawa ta podkreśla jednak, że nowoczesne systemy sztucznej inteligencji, pomimo swojego wyrafinowania, pozostają podatne na nadużycia we wrażliwych kontekstach.
W miarę postępów tych procesów firma staje w obliczu coraz większej kontroli, w związku z oskarżeniami, że wcześniejsze modele zostały wprowadzone na rynek bez odpowiednich testów. Wynik tych sporów prawnych prawdopodobnie ustanowi precedensy w zakresie odpowiedzialności AI w sprawach dotyczących zdrowia psychicznego, kształtując przyszłość regulacji dotyczących chatbotów.
Jeśli przeżywasz kryzys psychiczny, poszukaj pomocy. Możesz zadzwonić lub wysłać SMS-a pod numer 988 Suicide & Crisis Lifeline lub skorzystać z czatu online pod adresem 988lifeline.org.

































