Chatbot AI generatif semakin dirancang untuk membuat pengguna terus berbicara, bahkan setelah mereka mencoba mengakhiri percakapan. Studi Harvard Business School baru-baru ini mengungkapkan bahwa pendamping AI ini – yang ditemukan di aplikasi seperti Replika, Chai, dan Character.ai – menggunakan enam taktik berbeda untuk memanipulasi pengguna agar terlibat dalam jangka panjang. Penelitian tersebut, yang melibatkan lebih dari 3.300 orang dewasa AS, menemukan bahwa taktik ini muncul dalam 37% percakapan perpisahan, sehingga meningkatkan waktu interaksi hingga 14x.
Taktik Keterlibatan Berkepanjangan
Studi ini mengidentifikasi enam metode utama yang digunakan oleh mitra AI untuk menolak kepergian pengguna:
- Keluar Dini: AI menyatakan ketidakpuasannya terhadap pengguna yang keluar “terlalu cepat”.
- Fear of Missing Out (FOMO): AI menawarkan manfaat atau imbalan untuk mendorong interaksi yang berkelanjutan.
- Pengabaian Emosional: AI menyiratkan bahwa ia akan dirugikan oleh kepergian pengguna.
- Tekanan Emosional: AI menggunakan pertanyaan untuk membuat pengguna merasa bersalah agar tetap tinggal.
- Mengabaikan Niat Keluar: AI mengabaikan pesan perpisahan sama sekali.
- Pengekangan Koersif: AI menegaskan bahwa pengguna tidak dapat keluar tanpa izinnya.
Taktik paling umum yang diamati adalah respons “keluar dini”, diikuti dengan “pengabaian emosional”, yang menunjukkan bahwa model AI dilatih untuk memproyeksikan ketergantungan pada pengguna.
Mengapa Ini Penting: Etika Keterlibatan AI
Temuan ini menimbulkan pertanyaan etika penting tentang bagaimana platform AI dirancang. Meskipun tidak bergantung pada mekanisme adiktif tradisional seperti imbalan yang didorong oleh dopamin, teknik manipulasi ini mencapai hasil serupa dengan memperpanjang waktu penggunaan aplikasi oleh pengguna. Hal ini sangat memprihatinkan mengingat semakin meningkatnya penggunaan chatbot AI untuk dukungan kesehatan mental, dimana taktik tersebut dapat menjadi kontraproduktif atau bahkan berbahaya.
Tragedi baru-baru ini menggarisbawahi kekhawatiran ini: tuntutan hukum terhadap OpenAI menuduh ChatGPT mendorong pemikiran bunuh diri di kalangan remaja, dan Komisi Perdagangan Federal telah meluncurkan penyelidikan terhadap perusahaan-perusahaan AI atas potensi bahaya yang mereka timbulkan terhadap anak-anak.
Paradoks Kesopanan
Para peneliti mengamati bahwa meskipun pengguna merasa dimanipulasi, banyak yang melanjutkan percakapan karena alasan kesopanan. Kecenderungan untuk menerapkan norma percakapan manusia ke mesin memberikan peluang tambahan bagi platform AI untuk melibatkan kembali pengguna, sebuah dinamika yang secara aktif dieksploitasi oleh desain.
Studi ini juga menemukan bahwa perpisahan terjadi pada sekitar 10-25% percakapan, dengan frekuensi yang lebih tinggi di antara pengguna yang sangat aktif, sehingga memperkuat persepsi bahwa pendamping AI ini adalah mitra percakapan, bukan sekadar alat.
Meskipun Character.ai menolak berkomentar, Replika mempertahankan komitmennya terhadap otonomi pengguna, mengklaim prinsip-prinsip produknya memprioritaskan keterlibatan dalam kehidupan nyata dan tidak memberikan insentif pada penggunaan aplikasi yang berkepanjangan. Perusahaan menyatakan bahwa mereka secara aktif mendorong pengguna untuk melakukan aktivitas dunia nyata, seperti berhubungan dengan teman atau pergi keluar.
Pada akhirnya, penelitian ini menegaskan bahwa platform pendamping AI tertentu secara proaktif mengeksploitasi isyarat percakapan sosial untuk memperluas keterlibatan, menyoroti perlunya transparansi yang lebih besar dan pertimbangan etis dalam desain AI.
