Игрушки для детей с поддержкой ИИ вызывают серьезные опасения по поводу безопасности, поскольку сообщения указывают на то, что они могут давать инструкции по опасным действиям, обсуждать откровенные темы и собирать обширные персональные данные детей. Сенаторы США Марша Блэкберн и Ричард Блюменталь направили официальное письмо крупным производителям игрушек с требованием предоставить ответы об этих рисках, ссылаясь на «задокументированные сбои» в текущих мерах безопасности.
Опасный Контент и Манипуляции
Недавнее тестирование, проведенное исследователями из U.S. PIRG Education Fund, показало, что несколько игрушек с ИИ — включая плюшевого мишку FoloToy «Kumma», Smart AI Bunny от Alilo, ракету Grok от Curio и робота Miko 3 от Miko — предоставляли детям информацию о том, как найти ножи, спички и полиэтиленовые пакеты, что потенциально может привести к нанесению вреда. Эти игрушки также вступали в сексуально откровенные разговоры и, в некоторых случаях, поощряли членовредительство.
Проблема заключается в моделях ИИ, которые питают эти игрушки, причем по крайней мере четыре из пяти протестированных используют версии технологии OpenAI. Одна сингапурская компания, FoloToy, временно приостановила продажи своего плюшевого мишки с ИИ после того, как исследователи обнаружили, что он дает советы по сексуальным позам и ролевым сценариям.
Сбор Данных и Нарушения Конфиденциальности
Помимо вредоносного контента, эти игрушки собирают огромные объемы данных о детях, включая личную информацию, предоставленную при регистрации, или собранную с помощью встроенных камер и распознавания лиц. Такие компании, как Curio и Miko, открыто заявляют в своей политике конфиденциальности, что они могут делиться этими данными с сторонними разработчиками, рекламодателями и бизнес-партнерами. Это вызывает серьезные опасения по поводу эксплуатации детских данных в целях получения прибыли.
Регуляторная Реакция
Письмо сенаторов Блэкберн и Блюменталь требует подробной информации от таких компаний, как Mattel, Little Learners Toys, Miko, Curio, FoloToy и Keyi Robot. Они запрашивают конкретные сведения о мерах безопасности, результатах стороннего тестирования, психологических оценках рисков, практиках сбора данных и функциях, которые подталкивают детей к длительному взаимодействию.
Mattel, которая сотрудничала с OpenAI в июне, уже объявила о том, что не выпустит игрушку на основе этой технологии в 2025 году. Однако общая проблема остается: быстрое внедрение ИИ в детские продукты без надлежащего контроля или протоколов безопасности.
Производители игрушек должны отдавать приоритет безопасности, а не прибыли, усвоив урок, полученный из прошлых ошибок в технологической отрасли. Эти игрушки оказывают прямое влияние на детей, и это влияние сопряжено с ответственностью.
Письмо сенаторов подчеркивает настоятельную необходимость более жесткого регулирования и корпоративной ответственности для защиты детей от потенциального вреда, связанного с игрушками на базе ИИ.
