KI-Spielzeug ohne Sicherheitsnachweise auf dem Markt

Sprechende Puppen, lernende Roboter, emotionssensitive Companions: KI-gestütztes Spielzeug erobert Kinderzimmer weltweit – während unabhängige Sicherheitsstudien, verbindliche Prüfstandards und belastbare Langzeitdaten weitgehend fehlen.

KI-Spielzeug auf dem Markt – Sicherheitsbelege fehlen

Interaktive Spielzeuge mit eingebetteten KI-Systemen sind bereits im Handel erhältlich, obwohl belastbare Studien zu deren Auswirkungen auf Kinder bislang kaum existieren. Experten und Regulierungsbehörden warnen zunehmend, dass die technologische Entwicklung der rechtlichen und wissenschaftlichen Aufarbeitung weit voraus ist.


Markt wächst, Datenlage bleibt dünn

KI-gestützte Spielzeuge – von sprachgesteuerten Puppen bis zu interaktiven Lernrobotern – sprechen mit Kindern, reagieren auf Emotionen und bauen über Wochen hinweg eine Art Beziehung auf. Hersteller vermarkten diese Eigenschaften als pädagogischen Mehrwert.

Was fehlt, sind unabhängige Langzeitstudien darüber, wie sich dauerhafter Umgang mit solchen Systemen auf kognitive Entwicklung, soziale Kompetenz und emotionale Bindungsfähigkeit bei Kindern auswirkt.

Die verfügbaren Untersuchungen sind fragmentarisch und wurden größtenteils von den Unternehmen selbst beauftragt.


Datenschutz als konkretes Risiko

Ein besonders greifbares Problem ist der Umgang mit Nutzerdaten. KI-Spielzeuge erfassen kontinuierlich Sprache, teils auch Bilder oder Standortdaten der jüngsten Nutzergruppe überhaupt.

Bisherige Vorfälle in der Branche zeigen das Risikopotenzial deutlich: Beim Hack des vernetzten Spielzeugs „CloudPets” im Jahr 2017 wurden Millionen Sprachnachrichten von Kindern offengelegt – eine direkte Folge unzureichender Sicherheitsarchitektur.

Aktuelle Produkte operieren mit deutlich leistungsfähigeren Systemen und sammeln entsprechend mehr Daten – ohne dass branchenweit verbindliche Standards für deren Speicherung und Verarbeitung bestehen.


Regulierung hinkt hinterher

In der Europäischen Union greifen grundsätzlich bestehende Produktsicherheitsrichtlinien sowie die DSGVO, doch sind diese Regelwerke nicht spezifisch auf KI-Systeme in Konsumprodukten ausgerichtet.

Der EU AI Act, der schrittweise bis 2027 in Kraft tritt, klassifiziert KI-Anwendungen für Kinder zwar als sensiblen Bereich, legt aber keine konkreten Prüfpflichten für Spielzeughersteller fest, die mit bestehenden CE-Kennzeichnungsverfahren vergleichbar wären. Britische und US-amerikanische Behörden stehen vor ähnlichen Lücken.

Während die Regulierung aufholt, tragen Eltern die Risikoabschätzung faktisch allein.


Hersteller sehen sich in der Pflicht – ohne Nachweis

Mehrere Unternehmen betonen in ihren Stellungnahmen, Kinderschutz und Datensicherheit hätten oberste Priorität. Konkrete, nachprüfbare Belege – etwa durch unabhängige Audits oder transparente Algorithmusdokumentation – bleiben jedoch die Ausnahme.

Ohne externe Prüfmechanismen lassen sich solche Aussagen weder verifizieren noch widerlegen.


Einordnung für deutsche Unternehmen

Für Händler und Einkäufer im deutschen Markt ergibt sich daraus eine klare Sorgfaltspflicht:

  • Produkte mit eingebetteten KI-Systemen, die sich an Minderjährige richten, sollten vor der Listung auf DSGVO-Konformität sowie auf vorhandene Zertifizierungen geprüft werden.
  • Unternehmen, die selbst KI-Anwendungen für Endverbraucher entwickeln oder vertreiben, sollten die laufende Konkretisierung des EU AI Act eng verfolgen.
  • Erste verbindliche Anforderungen für Hochrisikosysteme gelten bereits ab August 2026.

Die Marktentwicklung zeigt: Technologische Machbarkeit und regulatorische Reife klaffen in diesem Segment erheblich auseinander.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top