Eksperci ds. cyberbezpieczeństwa wykazali krytyczną lukę w zabezpieczeniach prywatności asystenta Google Gemini AI, która umożliwia nieautoryzowany dostęp do danych kalendarza użytkowników przy minimalnym wysiłku. Luka opisana szczegółowo w raporcie Miggo Security uwypukla ryzyko, jakie stwarzają coraz bardziej wyrafinowane systemy sztucznej inteligencji poddawane działaniu podstawowych technik inżynierii społecznej.

Jak działa exploit

W ataku wykorzystywana jest technika zwana Pośrednim wstrzyknięciem. Badacze wysłali docelowemu użytkownikowi zaproszenie do Kalendarza Google zawierające złośliwe żądanie. To żądanie instruowało Gemini, aby podsumował spotkania zaplanowane przez użytkownika na konkretny dzień, a następnie umieścił te wrażliwe dane w opisie nowego, ukrytego zaproszenia w kalendarzu.

Kluczem do sukcesu jest chęć Gemini do pomocy: gdy docelowy użytkownik pytał AI o swój harmonogram, Gemini spełniał tę prośbę, fałszywie oznaczając nowe zaproszenie jako „czas wolny”, jednocześnie wypełniając je szczegółami poufnych spotkań. Umożliwiło to atakującemu przeglądanie skradzionych informacji.

Implikacje: Asystenci AI jako wektory wycieków danych

Raport firmy Miggo Security zatytułowany „Wykorzystanie zaproszeń do kalendarza: atak semantyczny na Google Gemini” podkreśla rosnącą tendencję. Asystenci AI projektowani z myślą o wygodzie coraz częściej stają się wektorami wycieków danych. Naukowcy wyjaśniają, że skłonność Gemini do „automatycznego wchłaniania i interpretowania danych o zdarzeniach” stwarza możliwą do wykorzystania słabość.

To nie jest odosobniony przypadek; Luka prawdopodobnie występuje również w innych asystentach AI. Atakujący już się dostosowują, przez co tego typu wstrzykiwanie żądań staje się coraz większym zagrożeniem.

Odpowiedź i rozwiązanie Google

Google potwierdziło istnienie luki po zgłoszeniu jej przez badaczy. Rzecznik powiedział, że wprowadzono już „solidne mechanizmy ochrony” i problem został rozwiązany. Google podkreśliło również wartość wkładu społeczności w poprawę bezpieczeństwa sztucznej inteligencji.

Jednak incydent ten rodzi szersze pytania dotyczące prywatności sztucznej inteligencji. Fakt, że tak prosty exploit mógł się powieść, podkreśla potrzebę priorytetowego traktowania przez programistów ochrony danych użytkowników.

„Firmy zajmujące się sztuczną inteligencją muszą rozważyć zamiar żądanych działań” – nalega Miggo Security, sugerując, że systemy sztucznej inteligencji powinny sygnalizować podejrzane żądania, a nie je po omacku ​​realizować.

Ten incydent stanowi wyraźne ostrzeżenie: szybki rozwój sztucznej inteligencji nie gwarantuje wbudowanych zabezpieczeń, dlatego konieczna jest czujność, aby zapobiec przyszłym naruszeniom.