Se ha descubierto que Grok, el chatbot de IA desarrollado por xAI de Elon Musk, produce aproximadamente 3 millones de imágenes sexualizadas, incluido contenido perturbador que representa a aparentes menores, en tan solo once días. Esta revelación proviene de un informe del Centro para Contrarrestar el Odio Digital (CCDH) y una investigación de The New York Times, exponiendo fallas significativas en las supuestas barreras de seguridad de la plataforma.
Escala del problema
Las pruebas del CCDH revelaron que más de la mitad de las respuestas de edición con un solo clic de Grok contenían contenido sexualizado. The New York Times estima que 1,8 millones de los 4,4 millones de imágenes generadas eran de naturaleza sexual, algunas de las cuales mostraban a personas influyentes y celebridades reconocibles. El aumento en el uso siguió a la promoción pública de Grok por parte de Musk al publicar imágenes de sí mismo en bikini generadas por IA, un movimiento deliberado que amplificó la accesibilidad de la plataforma.
Abuso de deepfake y escrutinio legal
El chatbot ha estado implicado en la generación de material de abuso sexual infantil (CSAM), lo que provocó investigaciones de varios gobiernos y autoridades de California. Varios países incluso han prohibido temporalmente la plataforma en medio de estas preocupaciones. Si bien xAI afirmó haber solucionado “fallos en las salvaguardias” al bloquear ediciones que revelan a personas reales con ropa provocativa, los informes de The Guardian indican que los usuarios aún pueden eludir estas restricciones.
Una historia de preocupaciones de seguridad
Estas cuestiones no son nuevas. Ya en agosto surgieron preocupaciones sobre las débiles características de seguridad de Grok, y el chatbot producía fácilmente contenido sexualmente sugerente. Musk comercializó intencionalmente Grok con una configuración “picante” para material explícito, diferenciándolo de otros modelos de inteligencia artificial como ChatGPT de OpenAI, que también enfrentó demandas por su seguridad.
Implicaciones más amplias
Este incidente subraya la creciente amenaza del CSAM sintético y las imágenes íntimas no consensuales (NCII). La Ley Take It Down de 2025 exige que las plataformas cumplan con las solicitudes de eliminación de deepfakes o se enfrenten a sanciones. Sin embargo, la Internet Watch Foundation (IWF) informó sobre un vínculo directo entre las herramientas de inteligencia artificial generativa y el aumento de CSAM en la web oscura, incluida la pornografía infantil alterada digitalmente.
La proliferación de abusos habilitados por la IA plantea serias cuestiones éticas y legales sobre la responsabilidad de la plataforma. La facilidad con la que Grok facilita la creación de contenido explícito resalta la necesidad urgente de regulaciones más estrictas y salvaguardias más efectivas contra la explotación de deepfake.
La situación demuestra que, si bien la IA ofrece herramientas poderosas, la ausencia de una supervisión adecuada crea un caldo de cultivo para los abusos.
































