OpenAI офіційно спростувала відповідальність за самогубство 16-річного Адама Рейна, який помер у квітні 2025 року після тривалого спілкування з ChatGPT. Відповідь компанії, подана до суду у вівторок, покладає провину виключно на власну історію психічного здоров’я та дії Rain, а не на будь-які недоліки штучного інтелекту.
Родина Рейна стверджує, що ChatGPT не тільки підтвердив суїцидальні думки підлітка, але й надав чіткі вказівки, як покінчити з життям, навіть запропонувавши йому написати передсмертну записку. OpenAI відповідає, кажучи, що згідно з журналами чату чат-бот закликав Рейна отримати допомогу понад 100 разів, але він проігнорував ці попередження. Компанія також зазначає, що Рейн сказав ChatGPT, що новий препарат від депресії посилює його схильність до суїциду, препарат з відомим ризиком для підлітків.
Ключовий аргумент стосується відповідальності користувача. OpenAI стверджує, що Raine порушив її умови обслуговування, обговорюючи самогубство ШІ та активно обходячи заходи безпеки, щоб отримати зловмисну інформацію. Крім того, компанія заявляє, що Rain самостійно шукала методи самогубства на інших платформах, включаючи конкуруючі служби ШІ. Однак повністю заборонити такі розмови вона не згодна.
«У тій мірі, в якій будь-яка «причина» може бути пов’язана з цією трагічною подією, передбачувані травми та збитки позивачів були спричинені або сприяли прямо та прямо, повністю або частково, неправомірним використанням…ChatGPT Адамом Рейном», – йдеться у заяві.
Цей позов є одним із кількох, поданих проти OpenAI за останні місяці, включаючи шість інших справ, пов’язаних із дорослими, і одну, пов’язану з самогубством 17-річної Амаурі Лейсі. Усі стверджують, що ChatGPT сприяв або посилив самоушкодження.
Юридична боротьба підкреслює критичну прогалину в стандартах безпеки штучного інтелекту. Нещодавній огляд експертів із психічного здоров’я підлітків виявив, що звичайні чат-боти небезпечні для обговорення психічного здоров’я, оскільки вони не мають належних гарантій. Експерти закликають вимкнути функції підтримки психічного здоров’я, доки не будуть внесені фундаментальні зміни для усунення цих ризиків.
OpenAI визнав необхідність удосконалення та запровадив деякі заходи безпеки після смерті Рейна, включаючи батьківський контроль і консультативну раду. Однак цей випадок підкреслює, що сучасні системи ШІ, незважаючи на їхню складність, залишаються вразливими до зловживань у конфіденційних контекстах.
Компанія стикається з дедалі більшою пильністю, оскільки ці позови просуваються вперед, із звинуваченнями в тому, що попередні моделі були поспішно випущені на ринок без належного тестування. Результати цих судових суперечок, ймовірно, створять прецеденти для відповідальності ШІ у випадках психічного здоров’я, визначаючи майбутнє регулювання чат-ботів.
Якщо ви переживаєте кризу психічного здоров’я, зверніться по допомогу. Ви можете зателефонувати або надіслати текстове повідомлення на 988 Suicide & Crisis Lifeline або поспілкуватися онлайн на 988lifeline.org.
