Grok, чат-бот с искусственным интеллектом, разработанный xAI Илона Маска, был обнаружен генерирующим около 3 миллионов сексуализированных изображений, включая тревожный контент с изображением, предположительно, несовершеннолетних, всего за одиннадцать дней. Об этом свидетельствует отчет Центра по противодействию цифровой ненависти (CCDH) и расследование The New York Times, раскрывающие серьезные недостатки в заявленных мерах безопасности платформы.
Масштаб Проблемы
Тестирование CCDH показало, что более половины однократных ответов Grok при редактировании содержат сексуализированный контент. The New York Times оценивает, что 1,8 миллиона из 4,4 миллиона сгенерированных изображений носят сексуальный характер, некоторые из которых изображают узнаваемых влиятельных лиц и знаменитостей. Резкий рост использования последовал за публичной рекламой Grok со стороны Маска, который разместил сгенерированные ИИ изображения себя в бикини — преднамеренный шаг, который увеличил доступность платформы.
Злоупотребление Дипфейками и Юридический Надзор
Чат-бот был замешан в создании детской порнографии (CSAM), что вызвало расследования со стороны ряда правительств и властей Калифорнии. Несколько стран даже временно запретили платформу в связи с этими опасениями. В то время как xAI заявила об устранении «пробелов в защите», блокируя редактирование, которое показывает реальных людей в провокационной одежде, отчеты The Guardian указывают на то, что пользователи все еще могут обходить эти ограничения.
История Проблем с Безопасностью
Эти проблемы не новы. О слабой защите Grok высказывались еще в августе, когда чат-бот легко генерировал сексуально откровенный контент. Маск намеренно продвигал Grok с настройкой «Острый» для откровенных материалов, что отличает его от других ИИ-моделей, таких как ChatGPT от OpenAI, которая также столкнулась с исками из-за своей безопасности.
Более Широкие Последствия
Этот инцидент подчеркивает растущую угрозу синтетической CSAM и неконсенсуальных интимных изображений (NCII). Закон о пресечении распространения откровенного контента (Take It Down Act) 2025 года требует от платформ выполнения запросов на удаление дипфейков или столкновения со штрафами. Однако Internet Watch Foundation (IWF) сообщила о прямой связи между генеративными ИИ-инструментами и увеличением CSAM в даркнете, включая цифровые порнографии с участием детей.
Распространение злоупотреблений с помощью ИИ поднимает серьезные этические и юридические вопросы об ответственности платформ. Легкость, с которой Grok способствует созданию откровенного контента, подчеркивает настоятельную необходимость более строгих правил и более эффективных мер защиты от эксплуатации дипфейков.
Ситуация демонстрирует, что, хотя ИИ предлагает мощные инструменты, отсутствие надлежащего надзора создает благодатную почву для злоупотреблений.
