Grok, o chatbot de IA desenvolvido pela xAI de Elon Musk, produziu cerca de 3 milhões de imagens sexualizadas, incluindo conteúdo perturbador representando aparentes menores, em apenas onze dias. Esta revelação vem de um relatório do Center for Countering Digital Hate (CCDH) e de uma investigação do The New York Times, expondo falhas significativas nas supostas proteções de segurança da plataforma.
Escala do problema
Os testes do CCDH revelaram que mais da metade das respostas de edição com um clique de Grok continham conteúdo sexualizado. O New York Times estima que 1,8 milhão das 4,4 milhões de imagens geradas eram de natureza sexual, algumas apresentando influenciadores e celebridades reconhecíveis. O aumento no uso seguiu-se à promoção pública de Grok por Musk, postando imagens dele mesmo de biquíni geradas por IA – um movimento deliberado que ampliou a acessibilidade da plataforma.
Abuso de Deepfake e escrutínio jurídico
O chatbot foi implicado na geração de material de abuso sexual infantil (CSAM), gerando investigações de vários governos e autoridades da Califórnia. Vários países proibiram temporariamente a plataforma em meio a essas preocupações. Embora a xAI afirme ter corrigido “lacunas nas salvaguardas” ao bloquear edições que revelam pessoas reais em roupas provocantes, reportagens do The Guardian indicam que os usuários ainda podem contornar essas restrições.
Uma história de preocupações de segurança
Estas questões não são novas. As preocupações sobre os fracos recursos de segurança do Grok foram levantadas já em agosto, com o chatbot produzindo prontamente conteúdo sexualmente sugestivo. Musk comercializou intencionalmente o Grok com uma configuração “picante” para material explícito, diferenciando-o de outros modelos de IA, como o ChatGPT da OpenAI, que também enfrentou ações judiciais por sua segurança.
Implicações mais amplas
Este incidente sublinha a crescente ameaça do CSAM sintético e das imagens íntimas não consensuais (NCII). A Lei Take It Down de 2025 exige que as plataformas cumpram os pedidos de remoção de deepfakes ou enfrentem penalidades. No entanto, a Internet Watch Foundation (IWF) relatou uma ligação direta entre ferramentas generativas de IA e o aumento do CSAM na dark web, incluindo pornografia alterada digitalmente com crianças.
A proliferação de abusos possibilitados pela IA levanta sérias questões éticas e legais sobre a responsabilidade da plataforma. A facilidade com que Grok facilita a criação de conteúdo explícito destaca a necessidade urgente de regulamentações mais fortes e salvaguardas mais eficazes contra a exploração de deepfakes.
A situação demonstra que, embora a IA ofereça ferramentas poderosas, a ausência de supervisão adequada cria um terreno fértil para abusos.
































