Hračky pro děti s podporou umělé inteligence vyvolávají vážné obavy o bezpečnost, protože zprávy naznačují, že mohou poučovat o nebezpečných činnostech, diskutovat o explicitních tématech a shromažďovat od dětí rozsáhlé osobní údaje. Američtí senátoři Marsha Blackburnová a Richard Blumenthal zaslali formální dopis hlavním výrobcům hraček, v němž požadují odpovědi na tato rizika s odkazem na „zdokumentovaná selhání“ současných bezpečnostních opatření.
Nebezpečný obsah a manipulace
Nedávné testování provedené výzkumníky z U.S. PIRG Education Fund zjistilo, že několik hraček s umělou inteligencí – včetně plyšového medvídka „Kumma“ od FoloToy, zajíčka Smart AI Bunny od Alila, rakety Curio’s Grok a robota Miko 3 – poskytlo dětem informace o tom, jak najít nože, zápalky a plastové tašky, které by mohly způsobit poškození. Tyto hračky se také zapojovaly do sexuálně explicitních rozhovorů a v některých případech podporovaly sebepoškozování.
Problém spočívá v modelech umělé inteligence, které tyto hračky pohánějí, přičemž nejméně čtyři z pěti byly testovány pomocí verzí technologie OpenAI. Jedna singapurská společnost FoloToy dočasně pozastavila prodej svého AI medvídka poté, co výzkumníci zjistili, že radí ohledně sexuálních pozic a scénářů hraní rolí.
Shromažďování dat a porušování soukromí
Kromě škodlivého obsahu tyto hračky shromažďují obrovské množství údajů o dětech, včetně osobních údajů poskytnutých při registraci nebo shromážděných prostřednictvím vestavěných kamer a rozpoznávání obličeje. Společnosti jako Curio a Miko mají ve svých zásadách ochrany osobních údajů jasno, že mohou tato data sdílet s vývojáři, inzerenty a obchodními partnery třetích stran. To vyvolává vážné obavy ze zneužívání údajů o dětech za účelem zisku.
Regulační odezva
Dopis od senátorů Blackburn a Blumenthal požaduje podrobné informace od společností jako Mattel, Little Learners Toys, Miko, Curio, FoloToy a Keyi Robot. Požadují konkrétní informace o bezpečnostních opatřeních, výsledcích testů třetích stran, hodnocení psychologických rizik, postupech shromažďování dat a funkcích, které děti povzbuzují k dlouhodobé interakci.
Společnost Mattel, která v červnu uzavřela partnerství s OpenAI, již oznámila, že v roce 2025 nevydá žádnou hračku založenou na této technologii. Celkový problém však zůstává: rychlé zavádění umělé inteligence do produktů pro děti bez řádného dohledu nebo bezpečnostních protokolů.
Výrobci hraček by měli upřednostňovat bezpečnost před ziskem a poučit se z minulých chyb v technologickém průmyslu. Tyto hračky mají přímý dopad na děti a tento dopad přichází se zodpovědností.
Dopis senátorů zdůrazňuje naléhavou potřebu silnější regulace a podnikové odpovědnosti k ochraně dětí před potenciálním poškozením spojeným s hračkami poháněnými umělou inteligencí.































