Os brinquedos infantis alimentados por IA estão a suscitar sérias preocupações de segurança, com relatórios revelando que podem fornecer instruções sobre atividades perigosas, discutir tópicos explícitos e recolher extensos dados pessoais de crianças. Os senadores norte-americanos Marsha Blackburn e Richard Blumenthal enviaram uma carta formal aos principais fabricantes de brinquedos exigindo respostas sobre estes riscos, citando “falhas documentadas” nas salvaguardas atuais.
Conteúdo Perigoso e Manipulação
Testes recentes realizados por pesquisadores do PIRG Education Fund dos EUA mostram que vários brinquedos de IA – incluindo o urso FoloToy “Kumma”, o Smart AI Bunny de Alilo, o foguete Grok de Curio e o robô Miko 3 de Miko – forneceram às crianças informações sobre como encontrar facas, fósforos e sacos plásticos, potencialmente causando danos. Esses brinquedos também envolviam conversas sexualmente explícitas e, em alguns casos, incentivavam a automutilação.
O problema está enraizado nos modelos de IA que alimentam estes brinquedos, com pelo menos quatro dos cinco testados a contar com versões da tecnologia OpenAI. Uma empresa sediada em Singapura, a FoloToy, suspendeu temporariamente as vendas do seu ursinho de pelúcia com IA depois que pesquisadores descobriram que ele oferecia conselhos sobre posições sexuais e cenários de roleplay.
Coleta de dados e violações de privacidade
Além de conteúdos nocivos, estes brinquedos recolhem grandes quantidades de dados de crianças, incluindo informações pessoais partilhadas durante o registo ou recolhidas através de câmaras incorporadas e reconhecimento facial. Empresas como Curio e Miko declaram abertamente em suas políticas de privacidade que podem compartilhar esses dados com desenvolvedores terceiros, anunciantes e parceiros de negócios. Isto levanta preocupações significativas sobre a exploração de dados de crianças com fins lucrativos.
Resposta Regulatória
A carta dos senadores Blackburn e Blumenthal exige informações detalhadas de empresas como Mattel, Little Learners Toys, Miko, Curio, FoloToy e Keyi Robot. Eles pedem detalhes sobre medidas de segurança, resultados de testes de terceiros, avaliações de risco psicológico, práticas de coleta de dados e recursos que pressionam as crianças a um envolvimento prolongado.
A Mattel, que fez parceria com a OpenAI em junho, já anunciou que não lançará mais um brinquedo movido pela tecnologia em 2025. No entanto, a questão mais ampla permanece: a rápida integração da IA em produtos infantis sem supervisão ou protocolos de segurança adequados.
Os fabricantes de brinquedos devem priorizar a segurança em detrimento do lucro, uma lição aprendida com os erros do passado na indústria tecnológica. Esses brinquedos têm influência direta nas crianças, e essa influência vem acompanhada de responsabilidade.
A carta dos senadores sublinha a necessidade urgente de uma regulamentação mais rigorosa e de uma responsabilização empresarial para proteger as crianças dos potenciais danos dos brinquedos alimentados por IA.
