Odborníci na kybernetickou bezpečnost prokázali kritickou zranitelnost ochrany soukromí v asistentovi Gemini AI od Googlu, který umožňuje neoprávněný přístup k datům kalendáře uživatelů s minimálním úsilím. Tato zranitelnost, podrobně popsaná ve zprávě Miggo Security, zdůrazňuje rizika stále sofistikovanějších systémů umělé inteligence, když jsou vystaveny základním technikám sociálního inženýrství.
Jak Exploit funguje
Útok využívá techniku zvanou Indirect Prompt Injection. Výzkumníci poslali cílovému uživateli pozvánku do Kalendáře Google obsahující škodlivý požadavek. Tento požadavek dal Gemini pokyn, aby shrnul uživatele naplánované schůzky na konkrétní den a poté vložil tato citlivá data do popisu nové skryté pozvánky v kalendáři.
Klíčem k úspěchu je ochota Gemini být nápomocná: když se cílový uživatel zeptal AI na svůj rozvrh, Gemini splnil požadavek tím, že falešně označil novou pozvánku jako „volný čas“ a zároveň ji vyplnil podrobnostmi o důvěrných schůzkách. To útočníkovi umožnilo zobrazit ukradené informace.
Důsledky: Asistenti AI jako vektory úniku dat
Zpráva společnosti Miggo Security s názvem „Využití pozvánek do kalendáře: sémantický útok na Google Gemini“ zdůrazňuje rostoucí trend. Asistenti umělé inteligence navržení pro pohodlí se stále více stávají vektory úniků dat. Výzkumníci vysvětlují, že sklon Gemini „automaticky absorbovat a interpretovat data událostí“ vytváří zneužitelnou slabinu.
Toto není ojedinělý incident; Tato zranitelnost je pravděpodobně přítomna i u dalších asistentů AI. Útočníci se již přizpůsobují, takže tento typ vkládání požadavků je rostoucí hrozbou.
Odpověď a rozlišení Google
Google uznal zranitelnost poté, co ji výzkumníci oznámili. Mluvčí uvedla, že již byly zavedeny „robustní ochranné mechanismy“ a že problém byl vyřešen. Google také zdůraznil hodnotu příspěvku komunity při zlepšování bezpečnosti AI.
Incident však vyvolává širší otázky ohledně soukromí AI. Skutečnost, že by takový jednoduchý exploit mohl uspět, zdůrazňuje potřebu, aby vývojáři upřednostnili ochranu uživatelských dat.
„Společnosti s umělou inteligencí musí zvážit záměr požadovaných akcí,“ vyzývá Miggo Security a navrhuje, že systémy umělé inteligence by měly podezřelé požadavky spíše označovat, než je slepě provádět.
Tento incident slouží jako jasné varování: rychlý vývoj umělé inteligence nezaručuje vestavěnou bezpečnost a je třeba být obezřetný, aby se předešlo budoucím narušení.































