KI-Spielzeug auf dem Vormarsch – Sicherheitsnachweise bleiben aus

Plüschtiere, die Geschichten erzählen, Roboter, die Fragen beantworten, Lernspielzeuge mit eingebetteten Sprachmodellen – KI-gestütztes Spielzeug erobert die Kinderzimmer, bevor Wissenschaft, Regulierung und Verbraucherschutz auch nur annähernd Schritt halten können.

KI-Spielzeug auf dem Vormarsch – Sicherheitsnachweise fehlen

Spielzeug mit integrierten KI-Funktionen drängt in großer Zahl auf den Markt, obwohl belastbare Studien zu möglichen Risiken für Kinder bislang kaum vorliegen. Hersteller verkaufen Produkte, die Sprachmodelle nutzen, um mit Kindern zu interagieren – regulatorische Rahmenbedingungen hinken dieser Entwicklung deutlich hinterher.


Produkte schneller als Standards

Eine wachsende Zahl von Unternehmen bringt Plüschtiere, Roboter und interaktive Lernspielzeuge auf den Markt, die Large Language Models (LLMs) einsetzen, um auf Fragen zu antworten, Geschichten zu erzählen oder als Gesprächspartner zu fungieren. Der Markt wächst rasant – doch unabhängige Sicherheitsprüfungen, die speziell auf KI-gestützte Interaktionen ausgelegt sind, existieren kaum.

Klassische Produktsicherheitstests prüfen physische Eigenschaften wie Kleinteile oder Materialzusammensetzung. Für das Verhalten eines Sprachmodells im Kinderzimmer gibt es schlicht keine etablierten Prüfverfahren.


Unbekannte Risiken, unklare Zuständigkeiten

Kritiker und Fachleute weisen auf mehrere potenzielle Problembereiche hin:

  • KI-Systeme können unvorhersehbare oder unangemessene Antworten generieren
  • Regelmäßige Interaktion mit scheinbar empathischen Systemen kann das Sozialverhalten von Kindern subtil beeinflussen
  • Viele Spielzeuge übertragen Sprachdaten an externe Server – mit erheblichen Datenschutzimplikationen

„Viele dieser Spielzeuge übertragen Sprachdaten an externe Server zur Verarbeitung – was in der EU unmittelbar Fragen zur DSGVO-Konformität aufwirft, insbesondere weil es sich um personenbezogene Daten Minderjähriger handelt.”

Zuständigkeitsfragen sind bislang ungeklärt. Je nach Produktkategorie könnten Spielzeugrichtlinien, Datenschutzrecht, der EU AI Act oder Verbraucherschutzgesetze greifen – eine koordinierte Aufsicht fehlt vollständig.


EU AI Act schafft Rahmen – aber keine Sofortlösung

Der EU AI Act klassifiziert KI-Systeme, die mit Minderjährigen interagieren, grundsätzlich als hohes Risiko. Entsprechende Anforderungen an Transparenz, menschliche Aufsicht und technische Dokumentation gelten jedoch schrittweise:

Die meisten relevanten Übergangsfristen laufen bis 2026 oder 2027 – für Produkte, die bereits heute im Handel erhältlich sind, besteht in der Zwischenzeit eine regulatorische Grauzone.

Marktaufsichtsbehörden in den EU-Mitgliedstaaten sind bislang kaum auf die spezifischen Herausforderungen KI-gestützter Konsumgüter vorbereitet.


Datenlage bleibt dünn

Wissenschaftliche Studien zu den Auswirkungen von KI-Spielzeug auf kindliche Entwicklung, Sozialverhalten oder psychische Gesundheit stehen noch ganz am Anfang. Langzeitdaten existieren praktisch nicht, da die aktuelle Produktgeneration schlicht zu neu ist.

Für Hersteller bedeutet das einen erheblichen Spielraum bei Marketingaussagen über pädagogischen Nutzen – belegt sind diese selten.


Handlungsempfehlungen für Unternehmen

Für deutsche Unternehmen, die KI-gestütztes Spielzeug oder vergleichbare Konsumprodukte für Minderjährige vertreiben oder entwickeln, ergibt sich konkreter Handlungsbedarf:

  • EU AI Act jetzt einbetten: Anforderungen bereits in Produktentwicklung und Compliance-Prozesse integrieren – nicht auf Fristablauf warten
  • Datenschutzbeauftragte frühzeitig einbinden: DSGVO-konforme Verarbeitung von Kinderdaten aktiv sicherstellen
  • Normierungsarbeit beobachten: Einheitliche Prüfstandards auf europäischer Ebene dürften in den kommenden Jahren an Fahrt gewinnen – wer früh dabei ist, verschafft sich einen Wettbewerbsvorteil

Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top