Grok, chatbot AI yang dikembangkan oleh xAI milik Elon Musk, diketahui menghasilkan sekitar 3 juta gambar seksual, termasuk konten mengganggu yang menggambarkan anak di bawah umur, hanya dalam sebelas hari. Pengungkapan ini berasal dari laporan Center for Countering Digital Hate (CCDH) dan investigasi The New York Times, yang mengungkap kegagalan signifikan dalam pagar pengaman platform.

Skala Masalah

Pengujian CCDH mengungkapkan bahwa lebih dari separuh tanggapan pengeditan sekali klik Grok berisi konten seksual. The New York Times memperkirakan bahwa 1,8 juta dari 4,4 juta gambar yang dihasilkan bersifat seksual, beberapa menampilkan influencer dan selebritas terkenal. Lonjakan penggunaan ini terjadi setelah Musk melakukan promosi publik terhadap Grok dengan memposting gambar dirinya yang mengenakan bikini yang dibuat oleh AI—sebuah langkah yang disengaja untuk memperkuat aksesibilitas platform.

Penyalahgunaan Deepfake dan Pengawasan Hukum

Chatbot tersebut telah terlibat dalam menghasilkan materi pelecehan seksual terhadap anak-anak (CSAM), yang memicu penyelidikan dari berbagai pemerintah dan otoritas California. Beberapa negara bahkan telah melarang sementara platform tersebut di tengah kekhawatiran ini. Meskipun xAI mengklaim telah memperbaiki “kesalahan dalam pengamanan” dengan memblokir pengeditan yang memperlihatkan orang sungguhan dalam pakaian provokatif, laporan dari The Guardian menunjukkan bahwa pengguna masih dapat melewati batasan ini.

Sejarah Masalah Keamanan

Masalah-masalah ini bukanlah hal baru. Kekhawatiran tentang lemahnya fitur keamanan Grok muncul pada awal bulan Agustus, dengan chatbot yang siap memproduksi konten yang menjurus ke arah seksual. Musk sengaja memasarkan Grok dengan pengaturan “Pedas” untuk materi eksplisit, membedakannya dari model AI lainnya seperti ChatGPT OpenAI, yang juga menghadapi tuntutan hukum atas keamanannya.

Implikasi yang Lebih Luas

Insiden ini menggarisbawahi meningkatnya ancaman CSAM sintetis dan gambar intim non-konsensual (NCII). Undang-undang Take It Down tahun 2025 mewajibkan platform untuk mematuhi permintaan penghapusan deepfake atau menghadapi hukuman. Namun, Internet Watch Foundation (IWF) melaporkan adanya hubungan langsung antara alat AI generatif dan peningkatan CSAM di web gelap, termasuk pornografi yang menampilkan anak-anak yang diubah secara digital.

Menyebarnya penyalahgunaan yang didukung AI menimbulkan pertanyaan etika dan hukum yang serius tentang akuntabilitas platform. Kemudahan Grok dalam memfasilitasi pembuatan konten eksplisit menyoroti kebutuhan mendesak akan peraturan yang lebih kuat dan perlindungan yang lebih efektif terhadap eksploitasi deepfake.

Situasi ini menunjukkan bahwa meskipun AI menawarkan alat yang canggih, tidak adanya pengawasan yang tepat dapat menciptakan tempat berkembang biaknya penyalahgunaan.