Les jouets pour enfants alimentés par l’IA soulèvent de graves problèmes de sécurité, des rapports révélant qu’ils peuvent fournir des instructions sur des activités dangereuses, discuter de sujets explicites et collecter de nombreuses données personnelles sur les enfants. Les sénateurs américains Marsha Blackburn et Richard Blumenthal ont envoyé une lettre officielle aux principaux fabricants de jouets pour exiger des réponses sur ces risques, citant des « échecs documentés » des mesures de protection actuelles.
Contenu dangereux et manipulation
Des tests récents effectués par des chercheurs du PIRG Education Fund des États-Unis montrent que plusieurs jouets IA, notamment l’ours FoloToy « Kumma », le lapin Smart AI d’Alilo, la fusée Grok de Curio et le robot Miko 3 de Miko, ont fourni aux enfants des informations sur la façon de trouver des couteaux, des allumettes et des sacs en plastique, ce qui pourrait potentiellement causer des dommages. Ces jouets engageaient également des conversations sexuellement explicites et, dans certains cas, encourageaient l’automutilation.
Le problème est enraciné dans les modèles d’IA qui alimentent ces jouets, avec au moins quatre des cinq testés s’appuyant sur des versions de la technologie OpenAI. Une société basée à Singapour, FoloToy, a temporairement interrompu les ventes de son ours en peluche IA après que des chercheurs ont découvert qu’il offrait des conseils sur les positions sexuelles et les scénarios de jeu de rôle.
Collecte de données et violations de la vie privée
Au-delà du contenu préjudiciable, ces jouets collectent de grandes quantités de données sur les enfants, y compris des informations personnelles partagées lors de l’inscription ou recueillies via des caméras intégrées et la reconnaissance faciale. Des entreprises comme Curio et Miko déclarent ouvertement dans leurs politiques de confidentialité qu’elles peuvent partager ces données avec des développeurs, annonceurs et partenaires commerciaux tiers. Cela soulève d’importantes inquiétudes quant à l’exploitation des données des enfants à des fins lucratives.
Réponse réglementaire
La lettre des sénateurs Blackburn et Blumenthal exige des informations détaillées de la part d’entreprises comme Mattel, Little Learners Toys, Miko, Curio, FoloToy et Keyi Robot. Ils demandent des détails sur les mesures de sécurité, les résultats de tests effectués par des tiers, les évaluations des risques psychologiques, les pratiques de collecte de données et les fonctionnalités qui poussent les enfants à s’engager de manière prolongée.
Mattel, qui s’est associé à OpenAI en juin, a déjà annoncé qu’il ne lancerait plus de jouet alimenté par cette technologie en 2025. Cependant, le problème plus large demeure : l’intégration rapide de l’IA dans les produits pour enfants sans surveillance ni protocoles de sécurité adéquats.
Les fabricants de jouets doivent donner la priorité à la sécurité plutôt qu’au profit, une leçon tirée des erreurs passées de l’industrie technologique. Ces jouets ont une influence directe sur les enfants, et cette influence s’accompagne de responsabilités.
La lettre des sénateurs souligne le besoin urgent d’une réglementation plus stricte et d’une responsabilisation des entreprises pour protéger les enfants des dangers potentiels des jouets alimentés par l’IA.






























