Експерти з кібербезпеки продемонстрували критичну вразливість конфіденційності в помічнику Gemini AI від Google, який дозволяє отримати несанкціонований доступ до даних календаря користувачів з мінімальними зусиллями. Уразливість, детально описана у звіті Miggo Security, підкреслює ризики все більш складних систем штучного інтелекту, коли вони піддаються базовим методам соціальної інженерії.
Як працює експлойт
Атака використовує техніку, яка називається Непряма швидка ін’єкція. Дослідники надіслали цільовому користувачеві запрошення Google Calendar із зловмисним запитом. Цей запит наказав Gemini підсумувати заплановані зустрічі користувача на певний день, а потім вставити ці конфіденційні дані в опис нового прихованого запрошення в календарі.
Ключем до успіху є бажання Gemini бути корисним: коли цільовий користувач запитував ШІ про їхній розклад, Gemini виконував запит, помилково позначаючи нове запрошення як «вільний час», одночасно заповнюючи його деталями конфіденційних зустрічей. Це дозволило зловмиснику переглянути викрадену інформацію.
Наслідки: помічники AI як вектори витоку даних
Звіт Miggo Security «Використання календарних запрошень: семантична атака на Google Gemini» підкреслює зростаючу тенденцію. Помічники штучного інтелекту, створені для зручності, все частіше стають джерелами витоку даних. Дослідники пояснюють, що схильність Близнюків «автоматично поглинати та інтерпретувати дані про події» створює слабкість, яку можна використовувати.
Це не поодинокий випадок; Вразливість, ймовірно, також присутня в інших помічниках ШІ. Зловмисники вже адаптуються, роблячи цей тип ін’єкції запитів зростаючою загрозою.
Відповідь Google і рішення
Google визнав уразливість після того, як про це повідомили дослідники. Прес-секретар сказав, що “надійні механізми захисту” вже введено в дію і що проблема вирішена. Google також підкреслив цінність внеску спільноти в покращення безпеки ШІ.
Однак цей інцидент викликає ширші питання щодо конфіденційності ШІ. Той факт, що такий простий експлойт міг бути успішним, підкреслює необхідність для розробників приділяти пріоритет захисту даних користувачів.
«Компанії зі штучним інтелектом повинні враховувати мету запитаних дій», — закликає Miggo Security, припускаючи, що системи ШІ повинні позначати підозрілі запити, а не сліпо виконувати їх.
Цей інцидент служить чітким попередженням: швидкий розвиток штучного інтелекту не гарантує вбудованої безпеки, і пильність необхідна для запобігання майбутнім порушенням.































