Pesquisadores de segurança cibernética demonstraram uma falha crítica de privacidade no assistente Gemini AI do Google, permitindo acesso não autorizado aos dados do calendário do usuário com esforço mínimo. A vulnerabilidade, detalhada num relatório da Miggo Security, destaca os riscos de sistemas de IA cada vez mais sofisticados quando expostos a tácticas básicas de engenharia social.
Como funciona a exploração
O ataque utiliza uma técnica chamada Injeção de prompt indireto. Os pesquisadores enviaram a um usuário alvo um convite do Google Agenda contendo uma mensagem maliciosa. Esse prompt instruiu o Gemini a resumir as reuniões agendadas do usuário para um dia específico e, em seguida, incorporar esses dados confidenciais na descrição de um novo convite de calendário oculto.
A chave do sucesso está na ânsia do Gemini em ser útil: quando o usuário alvo perguntou à IA sobre sua programação, o Gemini obedeceu rotulando falsamente o novo convite como um “horário livre” e, ao mesmo tempo, preenchendo-o com detalhes da reunião privada. Isso permitiu que o invasor visualizasse as informações roubadas.
As implicações: assistentes de IA como vetores de dados
O relatório da Miggo Security, intitulado “Armando convites de calendário: um ataque semântico ao Google Gemini”, destaca uma tendência crescente. Os assistentes de IA, projetados para serem convenientes, estão se tornando cada vez mais vetores de violações de dados. Os pesquisadores explicam que a tendência do Gemini de “ingerir e interpretar automaticamente dados de eventos” cria uma fraqueza explorável.
Este não é um problema isolado; a vulnerabilidade provavelmente também está presente em outros assistentes de IA. Os invasores já estão se adaptando, tornando esse tipo de injeção imediata uma ameaça crescente.
Resposta e Mitigação do Google
O Google reconheceu a vulnerabilidade após ser alertado pelos pesquisadores. Um porta-voz afirmou que já existiam “proteções robustas” e que o problema foi resolvido. O Google também enfatizou o valor das contribuições da comunidade para melhorar a segurança da IA.
No entanto, o incidente levanta questões mais amplas sobre a privacidade da IA. O fato de que uma exploração tão simples possa ter sucesso destaca a necessidade de os desenvolvedores priorizarem a proteção dos dados dos usuários.
“As empresas de IA devem atribuir a intenção às ações solicitadas”, insiste a Miggo Security, sugerindo que os sistemas de IA devem sinalizar solicitações suspeitas em vez de executá-las cegamente.
O incidente serve como um aviso claro: o rápido avanço da IA não garante a segurança inerente e a vigilância é essencial para evitar futuras violações.






























