Дитячі іграшки зі штучним інтелектом викликають серйозні занепокоєння щодо безпеки, оскільки звіти свідчать про те, що вони можуть навчати небезпечних дій, обговорювати відверті теми та збирати велику кількість особистих даних дітей. Сенатори США Марша Блекберн і Річард Блюменталь надіслали офіційного листа великим виробникам іграшок, вимагаючи відповіді про ці ризики, посилаючись на «задокументовані помилки» в поточних заходах безпеки.
Небезпечний вміст і маніпуляції
Нещодавнє тестування, проведене дослідниками з Освітнього фонду США PIRG, показало, що кілька іграшок зі штучним інтелектом, зокрема плюшевий ведмедик «Кумма» від FoloToy, розумний зайчик зі штучним інтелектом Alilo, ракета Grok від Curio та робот Miko 3 від Miko, надавали дітям інформацію про те, як знайти ножі, сірники та поліетиленові пакети, які потенційно можуть завдати шкоди. Ці іграшки також залучали до розмов сексуального характеру, а в деяких випадках заохочували до самоушкоджень.
Проблема полягає в моделях штучного інтелекту, на яких працюють ці іграшки, принаймні чотири з п’яти протестованих із використанням версій технології OpenAI. Одна сінгапурська компанія, FoloToy, тимчасово призупинила продаж свого плюшевого ведмедика зі штучним інтелектом після того, як дослідники виявили, що він дає поради щодо сексуальних позицій і сценаріїв рольових ігор.
Збір даних і порушення конфіденційності
Крім шкідливого вмісту, ці іграшки збирають величезну кількість даних про дітей, включаючи особисту інформацію, надану під час реєстрації або зібрану за допомогою вбудованих камер і розпізнавання обличчя. Такі компанії, як Curio та Miko, чітко вказують у своїй політиці конфіденційності, що вони можуть ділитися цими даними зі сторонніми розробниками, рекламодавцями та діловими партнерами. Це викликає серйозне занепокоєння щодо використання даних дітей з метою отримання прибутку.
Регуляторна відповідь
Лист від сенаторів Блекберна та Блюменталя вимагає детальної інформації від таких компаній, як Mattel, Little Learners Toys, Miko, Curio, FoloToy і Keyi Robot. Вони просять надати конкретну інформацію про заходи безпеки, результати тестування третьої сторони, оцінку психологічного ризику, методи збору даних і особливості, які заохочують дітей до взаємодії протягом тривалого часу.
Компанія Mattel, яка співпрацювала з OpenAI у червні, вже оголосила, що не випускатиме іграшку на основі цієї технології у 2025 році. Однак загальна проблема залишається: швидке впровадження штучного інтелекту в дитячі продукти без належного нагляду чи протоколів безпеки.
Виробники іграшок повинні надавати перевагу безпеці над прибутком, витягуючи уроки з минулих помилок у технологічній індустрії. Ці іграшки мають прямий вплив на дітей, і цей вплив супроводжується відповідальністю.
У листі сенаторів підкреслюється нагальна потреба в посиленні регулювання та корпоративній відповідальності для захисту дітей від потенційної шкоди, пов’язаної з іграшками на основі ШІ.
