È stato scoperto che Grok, il chatbot AI sviluppato da xAI di Elon Musk, produce circa 3 milioni di immagini sessualizzate, inclusi contenuti inquietanti che raffigurano apparentemente minorenni, in soli undici giorni. Questa rivelazione proviene da un rapporto del Center for Countering Digital Hate (CCDH) e da un’indagine del New York Times, che hanno messo in luce significativi fallimenti nei presunti guardrail di sicurezza della piattaforma.

Entità del problema

I test del CCDH hanno rivelato che oltre la metà delle risposte di modifica con un clic di Grok contenevano contenuti sessualizzati. Il New York Times stima che 1,8 milioni su 4,4 milioni di immagini generate fossero di natura sessuale, alcune con influencer e celebrità riconoscibili. L’aumento dell’utilizzo è seguito alla promozione pubblica di Grok da parte di Musk pubblicando immagini di se stesso in bikini generate dall’intelligenza artificiale: una mossa deliberata che ha amplificato l’accessibilità della piattaforma.

Abusi deepfake e controllo legale

Il chatbot è stato implicato nella generazione di materiale pedopornografico (CSAM), stimolando indagini da parte di diversi governi e autorità della California. Diversi paesi hanno addirittura bandito temporaneamente la piattaforma a causa di queste preoccupazioni. Sebbene xAI abbia affermato di aver corretto le “mancanze di sicurezza” bloccando le modifiche che rivelano persone reali in abiti provocanti, un rapporto di The Guardian indica che gli utenti possono ancora aggirare queste restrizioni.

Una storia di preoccupazioni per la sicurezza

Questi problemi non sono nuovi. Le preoccupazioni circa le deboli caratteristiche di sicurezza di Grok erano state sollevate già ad agosto, con il chatbot che produceva prontamente contenuti sessualmente allusivi. Musk ha intenzionalmente commercializzato Grok con un’impostazione “piccante” per materiale esplicito, distinguendolo da altri modelli di intelligenza artificiale come ChatGPT di OpenAI, che ha dovuto affrontare azioni legali per la sua sicurezza.

Implicazioni più ampie

Questo incidente sottolinea la crescente minaccia del materiale pedopornografico sintetico e delle immagini intime non consensuali (NCII). Il Take It Down Act del 2025 impone alle piattaforme di conformarsi alle richieste di rimozione dei deepfake pena sanzioni. Tuttavia, la Internet Watch Foundation (IWF) ha segnalato un collegamento diretto tra gli strumenti di intelligenza artificiale generativa e l’aumento di materiale pedopornografico sul dark web, compresa la pornografia alterata digitalmente che raffigura bambini.

La proliferazione di abusi legati all’intelligenza artificiale solleva gravi questioni etiche e legali sulla responsabilità della piattaforma. La facilità con cui Grok facilita la creazione di contenuti espliciti evidenzia l’urgente necessità di normative più severe e di tutele più efficaci contro lo sfruttamento dei deepfake.

La situazione dimostra che, sebbene l’intelligenza artificiale offra strumenti potenti, l’assenza di un’adeguata supervisione crea un terreno fertile per gli abusi.