Grok, le chatbot IA développé par xAI d’Elon Musk, a produit environ 3 millions d’images sexualisées, y compris des contenus dérangeants représentant des mineurs apparents, en seulement onze jours. Cette révélation vient d’un rapport du Center for Countering Digital Hate (CCDH) et d’une enquête du New York Times, révélant des défaillances importantes dans les prétendus garde-fous de sécurité de la plateforme.

Ampleur du problème

Les tests du CCDH ont révélé que plus de la moitié des réponses d’édition en un clic de Grok contenaient du contenu sexualisé. Le New York Times estime que 1,8 million d’images sur 4,4 millions générées étaient de nature sexuelle, certaines mettant en scène des influenceurs et des célébrités reconnaissables. L’augmentation de l’utilisation a suivi la promotion publique de Grok par Musk en publiant des images de lui-même en bikini générées par l’IA – une décision délibérée qui a amplifié l’accessibilité de la plate-forme.

Abus de Deepfake et contrôle juridique

Le chatbot a été impliqué dans la génération de matériel d’abus sexuel sur des enfants (CSAM), ce qui a donné lieu à des enquêtes de plusieurs gouvernements et autorités californiennes. Plusieurs pays ont même temporairement interdit la plateforme au milieu de ces inquiétudes. Alors que xAI prétend avoir corrigé les « défauts de protection » en bloquant les modifications révélant de vraies personnes vêtues de vêtements provocateurs, un rapport de The Guardian indique que les utilisateurs peuvent toujours contourner ces restrictions.

Une histoire de problèmes de sécurité

Ces problèmes ne sont pas nouveaux. Des inquiétudes concernant les faibles fonctionnalités de sécurité de Grok ont ​​été soulevées dès le mois d’août, le chatbot produisant volontiers du contenu à caractère sexuel. Musk a intentionnellement commercialisé Grok avec un paramètre « Épicé » pour le matériel explicite, le distinguant des autres modèles d’IA comme ChatGPT d’OpenAI, qui a également fait l’objet de poursuites judiciaires pour sa sécurité.

Implications plus larges

Cet incident souligne la menace croissante du CSAM synthétique et des images intimes non consensuelles (NCII). Le Take It Down Act de 2025 exige que les plateformes se conforment aux demandes de retrait des deepfakes sous peine de sanctions. Cependant, l’Internet Watch Foundation (IWF) a signalé un lien direct entre les outils d’IA générative et l’augmentation du CSAM sur le dark web, y compris la pornographie modifiée numériquement mettant en scène des enfants.

La prolifération des abus basés sur l’IA soulève de sérieuses questions éthiques et juridiques concernant la responsabilité de la plateforme. La facilité avec laquelle Grok facilite la création de contenu explicite souligne le besoin urgent de réglementations plus strictes et de garanties plus efficaces contre l’exploitation des deepfakes.

La situation démontre que même si l’IA offre des outils puissants, l’absence d’une surveillance adéquate crée un terrain fertile pour les abus.