Peneliti keamanan siber telah menunjukkan kelemahan privasi kritis pada asisten AI Gemini Google, yang memungkinkan akses tidak sah ke data kalender pengguna dengan sedikit usaha. Kerentanan tersebut, yang dirinci dalam laporan oleh Miggo Security, menyoroti risiko sistem AI yang semakin canggih ketika terkena taktik rekayasa sosial dasar.

Cara Kerja Eksploitasi

Serangan ini memanfaatkan teknik yang disebut Injeksi Prompt Tidak Langsung. Para peneliti mengirimkan undangan Google Kalender kepada pengguna yang ditargetkan yang berisi perintah berbahaya. Perintah ini menginstruksikan Gemini untuk merangkum jadwal pertemuan pengguna pada hari tertentu, lalu menyematkan data sensitif tersebut ke dalam deskripsi undangan kalender baru yang tersembunyi.

Kunci suksesnya terletak pada keinginan Gemini untuk membantu: ketika pengguna yang ditargetkan bertanya kepada AI tentang jadwal mereka, Gemini menurutinya dengan memberi label palsu pada undangan baru tersebut sebagai “slot waktu luang” sekaligus mengisinya dengan detail pertemuan pribadi. Hal ini memungkinkan penyerang untuk melihat informasi yang dicuri.

Implikasinya: Asisten AI sebagai Vektor Data

Laporan Miggo Security, berjudul “Weaponizing Calendar Invites: A Semantic Attack on Google Gemini,” menggarisbawahi tren yang sedang berkembang. Asisten AI, yang dirancang untuk kenyamanan, semakin menjadi vektor pelanggaran data. Para peneliti menjelaskan bahwa kecenderungan Gemini untuk “secara otomatis menyerap dan menafsirkan data peristiwa” menciptakan kelemahan yang dapat dieksploitasi.

Ini bukanlah masalah tersendiri; kerentanan ini kemungkinan juga terjadi pada asisten AI lainnya. Penyerang sudah beradaptasi, sehingga jenis injeksi cepat ini semakin menjadi ancaman.

Respons dan Mitigasi Google

Google mengakui kerentanan tersebut setelah diperingatkan oleh para peneliti. Seorang juru bicara menyatakan bahwa “perlindungan yang kuat” sudah ada dan masalah tersebut telah diperbaiki. Google juga menekankan pentingnya kontribusi komunitas dalam meningkatkan keamanan AI.

Namun, insiden tersebut menimbulkan pertanyaan yang lebih luas tentang privasi AI. Fakta bahwa eksploitasi sederhana seperti itu bisa berhasil menyoroti perlunya pengembang memprioritaskan perlindungan data pengguna.

“Perusahaan AI harus mengaitkan niat dengan tindakan yang diminta,” desak Miggo Security, menyarankan agar sistem AI harus menandai permintaan yang mencurigakan daripada mengeksekusinya secara membabi buta.

Insiden ini merupakan peringatan yang jelas: kemajuan pesat AI tidak menjamin keamanan yang melekat, dan kewaspadaan sangat penting untuk mencegah pelanggaran di masa depan.