Los juguetes para niños impulsados por IA están generando serias preocupaciones de seguridad, y los informes revelan que pueden proporcionar instrucciones sobre actividades peligrosas, discutir temas explícitos y recopilar una gran cantidad de datos personales de los niños. Los senadores estadounidenses Marsha Blackburn y Richard Blumenthal enviaron una carta formal a los principales fabricantes de juguetes exigiendo respuestas sobre estos riesgos, citando “fallas documentadas” en las salvaguardias actuales.
Contenido peligroso y manipulación
Pruebas recientes realizadas por investigadores del Fondo de Educación PIRG de EE. UU. muestran que varios juguetes de inteligencia artificial, incluido el oso FoloToy “Kumma”, el conejito inteligente con inteligencia artificial de Alilo, el cohete Grok de Curio y el robot Miko 3 de Miko, han proporcionado a los niños información sobre cómo encontrar cuchillos, cerillas y bolsas de plástico, lo que podría provocar daños. Estos juguetes también entablaban conversaciones sexualmente explícitas y, en algunos casos, fomentaban la autolesión.
El problema tiene su origen en los modelos de IA que impulsan estos juguetes, y al menos cuatro de los cinco probados dependen de versiones de la tecnología OpenAI. Una empresa con sede en Singapur, FoloToy, detuvo temporalmente las ventas de su osito de peluche con inteligencia artificial después de que los investigadores descubrieron que ofrecía consejos sobre posiciones sexuales y escenarios de juegos de rol.
Recopilación de datos y violaciones de privacidad
Más allá del contenido dañino, estos juguetes recopilan grandes cantidades de datos de los niños, incluida información personal compartida durante el registro o recopilada a través de cámaras integradas y reconocimiento facial. Empresas como Curio y Miko declaran abiertamente en sus políticas de privacidad que pueden compartir estos datos con desarrolladores, anunciantes y socios comerciales externos. Esto plantea importantes preocupaciones sobre la explotación de los datos de los niños con fines de lucro.
Respuesta regulatoria
La carta de los senadores Blackburn y Blumenthal exige información detallada de empresas como Mattel, Little Learners Toys, Miko, Curio, FoloToy y Keyi Robot. Piden detalles sobre medidas de seguridad, resultados de pruebas de terceros, evaluaciones de riesgos psicológicos, prácticas de recopilación de datos y características que presionan a los niños a una participación prolongada.
Mattel, que se asoció con OpenAI en junio, ya anunció que ya no lanzará un juguete impulsado por esta tecnología en 2025. Sin embargo, el problema más amplio sigue siendo: la rápida integración de la IA en productos para niños sin supervisión adecuada ni protocolos de seguridad.
Los fabricantes de juguetes deben priorizar la seguridad sobre las ganancias, una lección aprendida de errores pasados en la industria tecnológica. Estos juguetes tienen una influencia directa en los niños, y esa influencia conlleva responsabilidad.
La carta de los senadores subraya la necesidad urgente de una regulación más estricta y una responsabilidad corporativa para proteger a los niños de los daños potenciales de los juguetes impulsados por IA.
