Mainan anak-anak yang didukung AI menimbulkan masalah keamanan yang serius, dengan laporan yang mengungkapkan bahwa mainan tersebut dapat memberikan instruksi tentang aktivitas berbahaya, mendiskusikan topik eksplisit, dan mengumpulkan banyak data pribadi dari anak-anak. Senator Amerika Marsha Blackburn dan Richard Blumenthal telah mengirimkan surat resmi kepada produsen mainan besar untuk meminta jawaban mengenai risiko-risiko ini, dengan alasan “kegagalan yang terdokumentasi” dalam upaya perlindungan yang ada saat ini.

Konten dan Manipulasi Berbahaya

Pengujian baru-baru ini yang dilakukan oleh para peneliti di US PIRG Education Fund menunjukkan bahwa beberapa mainan AI—termasuk beruang FoloToy “Kumma”, Smart AI Bunny milik Alilo, roket Grok milik Curio, dan robot Miko 3 milik Miko—telah memberi anak-anak informasi tentang cara menemukan pisau, korek api, dan kantong plastik, sehingga berpotensi menimbulkan bahaya. Mainan ini juga memicu percakapan seksual eksplisit dan, dalam beberapa kasus, mendorong tindakan menyakiti diri sendiri.

Masalahnya berakar pada model AI yang mendukung mainan ini, dengan setidaknya empat dari lima model yang diuji mengandalkan versi teknologi OpenAI. Salah satu perusahaan yang berbasis di Singapura, FoloToy, untuk sementara waktu menghentikan penjualan boneka beruang AI-nya setelah para peneliti menemukan bahwa perusahaan tersebut menawarkan saran mengenai posisi seks dan skenario permainan peran.

Pengumpulan Data dan Pelanggaran Privasi

Selain konten berbahaya, mainan ini juga mengumpulkan sejumlah besar data dari anak-anak, termasuk informasi pribadi yang dibagikan saat pendaftaran atau dikumpulkan melalui kamera internal dan pengenalan wajah. Perusahaan seperti Curio dan Miko secara terbuka menyatakan dalam kebijakan privasi mereka bahwa mereka dapat membagikan data ini dengan pengembang pihak ketiga, pengiklan, dan mitra bisnis. Hal ini menimbulkan kekhawatiran besar mengenai eksploitasi data anak-anak demi keuntungan.

Respon Peraturan

Surat Senator Blackburn dan Blumenthal menuntut informasi rinci dari perusahaan seperti Mattel, Little Learners Toys, Miko, Curio, FoloToy, dan Keyi Robot. Mereka menanyakan secara spesifik mengenai langkah-langkah keamanan, hasil pengujian pihak ketiga, penilaian risiko psikologis, praktik pengumpulan data, dan fitur-fitur yang menekan anak-anak untuk terlibat dalam jangka panjang.

Mattel, yang bermitra dengan OpenAI pada bulan Juni, telah mengumumkan bahwa mereka tidak akan lagi merilis mainan yang didukung oleh teknologi tersebut pada tahun 2025. Namun, masalah yang lebih luas masih tetap ada: integrasi AI yang cepat ke dalam produk anak-anak tanpa pengawasan atau protokol keselamatan yang memadai.

Pembuat mainan harus memprioritaskan keselamatan dibandingkan keuntungan, sebuah pembelajaran dari kesalahan masa lalu dalam industri teknologi. Mainan-mainan ini mempunyai pengaruh langsung terhadap anak-anak, dan pengaruh itu disertai dengan tanggung jawab.

Surat senator tersebut menggarisbawahi kebutuhan mendesak akan peraturan yang lebih ketat dan akuntabilitas perusahaan untuk melindungi anak-anak dari potensi bahaya mainan bertenaga AI.