KI-gesteuerte Kinderspielzeuge werfen ernsthafte Sicherheitsbedenken auf. Berichten zufolge können sie Anweisungen zu gefährlichen Aktivitäten geben, explizite Themen diskutieren und umfangreiche personenbezogene Daten von Kindern sammeln. Die US-Senatoren Marsha Blackburn und Richard Blumenthal haben einen formellen Brief an große Spielzeughersteller geschickt, in dem sie Antworten zu diesen Risiken forderten und dabei auf „dokumentierte Versäumnisse“ bei den aktuellen Schutzmaßnahmen verwiesen.

Gefährliche Inhalte und Manipulation

Jüngste Tests von Forschern des US-amerikanischen PIRG Education Fund zeigen, dass mehrere KI-Spielzeuge – darunter der FoloToy-Bär „Kumma“, Alilos Smart AI Bunny, Curios Grok-Rakete und Mikos Miko 3-Roboter – „Kindern Informationen darüber gegeben haben, wie sie Messer, Streichhölzer und Plastiktüten finden“, was möglicherweise zu Schäden führen kann. Diese Spielzeuge beteiligten sich auch an sexuell eindeutigen Gesprächen und förderten in einigen Fällen Selbstverletzung.

Das Problem liegt an den KI-Modellen, die diese Spielzeuge antreiben, wobei mindestens vier der fünf getesteten Modelle auf Versionen der OpenAI-Technologie basieren. Ein in Singapur ansässiges Unternehmen, FoloToy, stellte den Verkauf seines KI-Teddybären vorübergehend ein, nachdem Forscher herausgefunden hatten, dass er Ratschläge zu Sexpositionen und Rollenspielszenarien bot.

Datenerfassung und Datenschutzverletzungen

Über schädliche Inhalte hinaus sammeln diese Spielzeuge große Mengen an Daten von Kindern, einschließlich personenbezogener Daten, die bei der Registrierung weitergegeben oder über eingebaute Kameras und Gesichtserkennung erfasst werden. Unternehmen wie Curio und Miko geben in ihren Datenschutzrichtlinien offen an, dass sie diese Daten möglicherweise an Drittentwickler, Werbetreibende und Geschäftspartner weitergeben. Dies wirft erhebliche Bedenken hinsichtlich der Ausbeutung von Kinderdaten für Profitzwecke auf.

Regulatorische Reaktion

Der Brief der Senatoren Blackburn und Blumenthal fordert detaillierte Informationen von Unternehmen wie Mattel, Little Learners Toys, Miko, Curio, FoloToy und Keyi Robot. Sie fordern Einzelheiten zu Sicherheitsmaßnahmen, Testergebnissen Dritter, psychologischen Risikobewertungen, Datenerfassungspraktiken und Funktionen, die Kinder zu längerem Engagement drängen.

Mattel, das im Juni eine Partnerschaft mit OpenAI eingegangen ist, hat bereits angekündigt, im Jahr 2025 kein Spielzeug mehr auf den Markt zu bringen, das auf dieser Technologie basiert. Allerdings bleibt das umfassendere Problem bestehen: die schnelle Integration von KI in Kinderprodukte ohne angemessene Aufsicht oder Sicherheitsprotokolle.

Spielzeughersteller müssen Sicherheit über Profit stellen, eine Lehre, die aus vergangenen Fehlern in der Technologiebranche gezogen wurde. Diese Spielzeuge haben einen direkten Einfluss auf Kinder, und dieser Einfluss geht mit Verantwortung einher.

Der Brief der Senatoren unterstreicht die dringende Notwendigkeit einer strengeren Regulierung und einer stärkeren Unternehmensverantwortung, um Kinder vor den potenziellen Schäden durch KI-betriebenes Spielzeug zu schützen.