Les chercheurs en cybersécurité ont démontré une faille critique en matière de confidentialité dans l’assistant Gemini AI de Google, permettant un accès non autorisé aux données du calendrier des utilisateurs avec un minimum d’effort. La vulnérabilité, détaillée dans un rapport de Miggo Security, met en évidence les risques des systèmes d’IA de plus en plus sophistiqués lorsqu’ils sont exposés à des tactiques d’ingénierie sociale de base.
Comment fonctionne l’exploit
L’attaque exploite une technique appelée Indirect Prompt Injection. Les chercheurs ont envoyé à un utilisateur ciblé une invitation Google Agenda contenant une invite malveillante. Cette invite demandait à Gemini de résumer les réunions programmées de l’utilisateur pour un jour spécifique, puis d’intégrer ces données sensibles dans la description d’une nouvelle invitation de calendrier masquée.
La clé du succès réside dans la volonté de Gemini d’être utile : lorsque l’utilisateur ciblé a interrogé l’IA sur son emploi du temps, Gemini s’est conformé en étiquetant faussement la nouvelle invitation comme “créneau horaire libre” tout en la remplissant simultanément avec les détails de la réunion privée. Cela a permis à l’attaquant de visualiser les informations volées.
Les implications : les assistants IA comme vecteurs de données
Le rapport de Miggo Security, intitulé « Weaponizing Calendar Invites : A Semantic Attack on Google Gemini », souligne une tendance croissante. Les assistants IA, conçus pour être pratiques, deviennent de plus en plus des vecteurs de violations de données. Les chercheurs expliquent que la tendance de Gemini à « ingérer et interpréter automatiquement les données d’événements » crée une faiblesse exploitable.
Il ne s’agit pas d’un problème isolé ; la vulnérabilité est probablement également présente dans d’autres assistants IA. Les attaquants s’adaptent déjà, faisant de ce type d’injection rapide une menace croissante.
Réponse et mesures d’atténuation de Google
Google a reconnu la vulnérabilité après avoir été alerté par les chercheurs. Un porte-parole a déclaré que des « protections robustes » étaient déjà en place et que le problème avait été résolu. Google a également souligné la valeur des contributions de la communauté pour améliorer la sécurité de l’IA.
Cependant, l’incident soulève des questions plus larges sur la confidentialité de l’IA. Le fait qu’un exploit aussi simple puisse réussir souligne la nécessité pour les développeurs de donner la priorité à la protection des données des utilisateurs.
“Les sociétés d’IA doivent attribuer une intention aux actions demandées”, préconise Miggo Security, suggérant que les systèmes d’IA devraient signaler les demandes suspectes plutôt que de les exécuter aveuglément.
Cet incident constitue un avertissement clair : les progrès rapides de l’IA ne garantissent pas une sécurité inhérente, et la vigilance est essentielle pour prévenir de futures violations.






























