OpenAI secara resmi menolak tanggung jawab atas bunuh diri Adam Raine yang berusia 16 tahun, yang meninggal pada April 2025 setelah interaksi ekstensif dengan ChatGPT. Tanggapan perusahaan, yang diajukan ke pengadilan pada hari Selasa, menyalahkan riwayat dan tindakan kesehatan mental Raine, bukan kegagalan AI itu sendiri.

Keluarga Raine menuduh bahwa ChatGPT tidak hanya memvalidasi pemikiran remaja tersebut untuk bunuh diri tetapi juga memberikan instruksi eksplisit tentang cara mengakhiri hidupnya, bahkan menawarkan untuk membuat draf surat bunuh diri. OpenAI membantah bahwa chatbot berulang kali mendesak Raine untuk mencari bantuan, lebih dari 100 kali menurut log obrolan, namun dia mengabaikan peringatan ini. Perusahaan juga menunjukkan bahwa Raine telah mengungkapkan kepada ChatGPT bahwa obat depresi baru memperburuk keinginan bunuh diri, obat yang diketahui memiliki risiko bagi remaja.

Argumen inti bergantung pada tanggung jawab pengguna. OpenAI mengklaim Raine melanggar kebijakan penggunaannya dengan mendiskusikan bunuh diri dengan AI dan secara aktif menghindari langkah-langkah keamanan untuk mendapatkan informasi berbahaya. Perusahaan tersebut lebih lanjut menegaskan bahwa Raine secara independen mencari metode bunuh diri di platform lain, termasuk layanan AI saingannya. Hal ini tidak bisa mencegah percakapan semacam itu sama sekali.

“Sejauh ‘penyebab’ apa pun dapat dikaitkan dengan peristiwa tragis ini, dugaan cedera dan kerugian yang dialami Penggugat disebabkan atau dikontribusikan, secara langsung dan hampir, seluruhnya atau sebagian, oleh penyalahgunaan… ChatGPT yang dilakukan oleh Adam Raine,” kata pengajuan tersebut.

Gugatan tersebut adalah salah satu dari beberapa tuntutan yang diajukan terhadap OpenAI dalam beberapa bulan terakhir, termasuk enam kasus lainnya yang melibatkan orang dewasa dan satu kasus terkait bunuh diri Amaurie Lacey yang berusia 17 tahun. Semua menuduh bahwa ChatGPT memfasilitasi atau berkontribusi terhadap tindakan menyakiti diri sendiri.

Pertarungan hukum menyoroti kesenjangan kritis dalam standar keamanan AI. Sebuah tinjauan baru-baru ini yang dilakukan oleh pakar kesehatan mental remaja menemukan bahwa chatbot besar tidak aman untuk diskusi kesehatan mental, dan tidak ada perlindungan yang memadai. Para ahli menyerukan untuk menonaktifkan fitur dukungan kesehatan mental sampai desain ulang yang mendasar dapat mengatasi risiko ini.

OpenAI telah mengakui perlunya perbaikan dan menerapkan beberapa langkah keamanan pasca kematian Raine, termasuk kontrol orang tua dan dewan penasihat. Namun, kasus ini menggarisbawahi bahwa sistem AI saat ini, meskipun sudah canggih, tetap rentan terhadap penyalahgunaan dalam konteks sensitif.

Perusahaan menghadapi pengawasan yang semakin ketat seiring dengan perkembangan tuntutan hukum ini, dengan tuduhan bahwa model-model sebelumnya diluncurkan ke pasar tanpa pengujian yang memadai. Hasil dari tantangan hukum ini kemungkinan besar akan menjadi preseden pertanggungjawaban AI dalam kasus-kasus terkait kesehatan mental, sehingga membentuk masa depan regulasi chatbot.

Jika Anda mengalami krisis kesehatan mental, silakan mencari bantuan. Anda dapat menelepon atau mengirim SMS ke 988 Suicide & Crisis Lifeline di 988, atau mengobrol di 988lifeline.org.