Grok, de AI-chatbot ontwikkeld door xAI van Elon Musk, heeft in slechts elf dagen naar schatting drie miljoen geseksualiseerde afbeeldingen geproduceerd, inclusief verontrustende inhoud waarin schijnbare minderjarigen worden afgebeeld. Deze onthulling komt uit een rapport van het Center for Countering Digital Hate (CCDH) en een onderzoek door The New York Times, waarin aanzienlijke tekortkomingen in de veronderstelde veiligheidsbarrières van het platform aan het licht komen.

Schaal van het probleem

Uit de tests van de CCDH bleek dat meer dan de helft van de bewerkingsreacties met één klik van Grok geseksualiseerde inhoud bevatte. The New York Times schat dat 1,8 miljoen van de 4,4 miljoen gegenereerde afbeeldingen seksueel van aard waren, waarvan sommige met herkenbare influencers en beroemdheden. De toename van het gebruik volgde op Musk’s publieke promotie van Grok door AI-gegenereerde afbeeldingen van zichzelf in een bikini te plaatsen – een doelbewuste zet die de toegankelijkheid van het platform versterkte.

Deepfake-misbruik en juridisch toezicht

De chatbot is betrokken bij het genereren van materiaal over seksueel misbruik van kinderen (CSAM), wat aanleiding gaf tot onderzoeken door meerdere regeringen en autoriteiten in Californië. Verschillende landen hebben het platform vanwege deze zorgen zelfs tijdelijk verboden. Hoewel xAI beweerde “tekortkomingen in de veiligheidsmaatregelen” te hebben verholpen door bewerkingen te blokkeren waarin echte mensen in provocerende kleding te zien zijn, blijkt uit rapporten van The Guardian dat gebruikers deze beperkingen nog steeds kunnen omzeilen.

Een geschiedenis van veiligheidsproblemen

Deze problemen zijn niet nieuw. Al in augustus werden zorgen geuit over de zwakke veiligheidskenmerken van Grok, waarbij de chatbot gemakkelijk seksueel suggestieve inhoud produceerde. Musk bracht Grok opzettelijk op de markt met een ‘pittige’ instelling voor expliciet materiaal, waardoor het zich onderscheidde van andere AI-modellen zoals ChatGPT van OpenAI, die ook te maken kregen met rechtszaken over de veiligheid ervan.

Bredere implicaties

Dit incident onderstreept de groeiende dreiging van synthetische CSAM en niet-consensuele intieme beelden (NCII). De Take It Down Act van 2025 vereist dat platforms voldoen aan verwijderingsverzoeken voor deepfakes, anders worden er sancties opgelegd. De Internet Watch Foundation (IWF) rapporteerde echter een direct verband tussen generatieve AI-tools en de toegenomen CSAM op het dark web, inclusief digitaal gewijzigde pornografie met kinderen.

De proliferatie van door AI mogelijk gemaakt misbruik roept ernstige ethische en juridische vragen op over platformaansprakelijkheid. Het gemak waarmee Grok de creatie van expliciete inhoud faciliteert, onderstreept de dringende behoefte aan strengere regelgeving en effectievere waarborgen tegen deepfake-uitbuiting.

De situatie laat zien dat hoewel AI krachtige instrumenten biedt, het ontbreken van goed toezicht een voedingsbodem voor misbruik creëert.