I giocattoli per bambini basati sull’intelligenza artificiale stanno sollevando seri problemi di sicurezza, con rapporti che rivelano che possono fornire istruzioni su attività pericolose, discutere argomenti espliciti e raccogliere numerosi dati personali dei bambini. I senatori statunitensi Marsha Blackburn e Richard Blumenthal hanno inviato una lettera formale ai principali produttori di giocattoli chiedendo risposte su questi rischi, citando “fallimenti documentati” nelle attuali misure di salvaguardia.

Contenuti pericolosi e manipolazione

Recenti test condotti da ricercatori del PIRG Education Fund statunitense mostrano che diversi giocattoli IA, tra cui l’orso FoloToy “Kumma”, il coniglietto Smart AI di Alilo, il razzo Grok di Curio e il robot Miko 3 di Miko, hanno fornito ai bambini informazioni su come trovare coltelli, fiammiferi e sacchetti di plastica, potenzialmente provocando danni. Questi giocattoli permettevano anche conversazioni sessualmente esplicite e, in alcuni casi, incoraggiavano l’autolesionismo.

Il problema è radicato nei modelli di intelligenza artificiale che alimentano questi giocattoli, con almeno quattro dei cinque testati che si basano su versioni della tecnologia OpenAI. Una società con sede a Singapore, FoloToy, ha temporaneamente sospeso le vendite del suo orsacchiotto AI dopo che i ricercatori hanno scoperto che offriva consigli su posizioni sessuali e scenari di gioco di ruolo.

Raccolta dati e violazioni della privacy

Oltre ai contenuti dannosi, questi giocattoli raccolgono grandi quantità di dati dei bambini, comprese informazioni personali condivise durante la registrazione o raccolte tramite fotocamere integrate e riconoscimento facciale. Aziende come Curio e Miko dichiarano apertamente nelle loro politiche sulla privacy che potrebbero condividere questi dati con sviluppatori, inserzionisti e partner commerciali di terze parti. Ciò solleva notevoli preoccupazioni circa lo sfruttamento dei dati dei bambini a scopo di lucro.

Risposta normativa

La lettera dei senatori Blackburn e Blumenthal richiede informazioni dettagliate da aziende come Mattel, Little Learners Toys, Miko, Curio, FoloToy e Keyi Robot. Chiedono dettagli sulle misure di sicurezza, sui risultati dei test di terze parti, sulla valutazione del rischio psicologico, sulle pratiche di raccolta dei dati e sulle caratteristiche che spingono i bambini a impegnarsi a lungo.

Mattel, che ha collaborato con OpenAI a giugno, ha già annunciato che non rilascerà più un giocattolo basato su questa tecnologia nel 2025. Tuttavia, rimane il problema più ampio: la rapida integrazione dell’intelligenza artificiale nei prodotti per bambini senza un’adeguata supervisione o protocolli di sicurezza.

I produttori di giocattoli devono dare priorità alla sicurezza rispetto al profitto, una lezione appresa dagli errori passati nel settore tecnologico. Questi giocattoli hanno un’influenza diretta sui bambini e tale influenza comporta responsabilità.

La lettera dei senatori sottolinea l’urgente necessità di una regolamentazione più rigorosa e di una responsabilità aziendale per proteggere i bambini dai potenziali danni dei giocattoli alimentati dall’intelligenza artificiale.