KI-Spielzeug im Aufwind: Sicherheitsstandards bleiben hinter der Entwicklung zurück

Sprechende Roboter, lernende Puppen, KI-gestützte Begleiter: Der Markt für intelligentes Kinderspielzeug boomt – doch verbindliche Sicherheitsstandards existieren bis heute nicht. Eltern, Hersteller und Regulatoren bewegen sich im rechtlichen Niemandsland.

KI-Spielzeug auf dem Vormarsch – Sicherheitsstandards fehlen

KI-gestützte Spielzeuge für Kinder kommen in wachsender Zahl auf den Markt, obwohl es bislang keine etablierten Sicherheitsstandards für diese Produktkategorie gibt. Hersteller bewegen sich damit in einer regulatorischen Grauzone, die erhebliche Haftungsrisiken mit sich bringt.


Markt wächst schneller als die Regulierung

Sprechende Puppen, interaktive Lernroboter und KI-gestützte Begleiter für Kinder sind längst kein Nischenprodukt mehr. Produkte wie Mattels „AI Toy” oder verschiedene Large Language Model-basierte Lernassistenten sind in Onlineshops frei verfügbar – und das, obwohl weder die EU noch andere Regulierungsbehörden bislang klare Sicherheitsanforderungen speziell für KI-Spielzeug definiert haben.

Bestehende Spielzeugrichtlinien adressieren primär physische Gefahren wie Verschlucken oder Materialzusammensetzung – nicht aber die Risiken, die aus dynamisch generierten Inhalten entstehen.


Unvorhersehbare Ausgaben, unkalkulierbare Risiken

Das Kernproblem liegt in der Natur von Large Language Models: Anders als vorprogrammierte Antworten sind die Ausgaben dieser Systeme nicht vollständig vorhersehbar. Kindgerechte Filterung ist technisch möglich, aber keine einheitliche Anforderung – und die Qualität dieser Filter variiert erheblich zwischen den Anbietern.

Sicherheitsforscher weisen darauf hin, dass Kinder durch gezieltes Nachfragen oder einfaches Ausprobieren Schutzfunktionen umgehen können. Hinzu kommt der Datenschutzaspekt: Viele dieser Geräte speichern Gesprächsdaten auf Servern der Hersteller, was unter der DSGVO besondere Sensibilität erfordert – schließlich handelt es sich um Daten Minderjähriger.


Haftungsfragen bleiben ungeklärt

Sollte ein KI-Spielzeug Inhalte produzieren, die einem Kind schaden – sei es durch unangemessene Informationen, psychologisch belastende Interaktionen oder Datenschutzverletzungen – ist die Haftungsfrage rechtlich noch weitgehend offen.

Der EU AI Act klassifiziert KI-Systeme, die mit Kindern interagieren, zwar als potenziell hochriskant – die konkrete Umsetzung in produktspezifische Anforderungen für Spielzeug steht jedoch noch aus.

Hersteller, die jetzt auf den Markt drängen, gehen damit ein kalkuliertes juristisches Risiko ein – mit der Hoffnung, Marktanteile zu sichern, bevor verbindliche Standards in Kraft treten.


Brancheninitiative als Lückenbüßer

Einige Hersteller und Interessenverbände arbeiten an freiwilligen Selbstverpflichtungen. Diese sehen Maßnahmen vor wie:

  • Regelmäßige Audits der KI-Ausgaben
  • Striktere Datenlokalisierung
  • Altersgerechte Interaktionsmodelle

Ob solche Initiativen jedoch ausreichen, um das Vertrauen von Eltern und Aufsichtsbehörden zu gewinnen, ist fraglich. Die bisherige Geschichte vernetzter Spielzeuge zeigt die Grenzen freiwilliger Standards deutlich:

Der CloudPets-Datenskandal 2017 – bei dem Millionen privater Sprachnachrichten von Kindern ungeschützt im Netz lagen – machte deutlich, dass Selbstregulierung allein keine hinreichende Absicherung bietet.


Einordnung für deutsche Unternehmen

Für deutsche Hersteller und Händler, die KI-gestütztes Spielzeug entwickeln oder vertreiben, empfiehlt sich eine proaktive Haltung. Konkret bedeutet das:

  • Frühzeitige Abstimmung mit Datenschutzbehörden
  • Dokumentation von KI-Systemrisiken nach den Anforderungen des EU AI Acts
  • Vertraglich abgesicherte Haftungsklauseln in der gesamten Lieferkette

Die Marktchancen sind real – doch das regulatorische Fenster, in dem ohne klare Vorgaben agiert werden kann, dürfte sich in den kommenden 12 bis 24 Monaten schließen. Wer dann nicht vorbereitet ist, riskiert nicht nur juristische Konsequenzen, sondern auch den Verlust des Elternvertrauens – des wertvollsten Kapitals in diesem Marktsegment.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top