Sprechende Roboter, lernende Puppen, adaptive Spielgefährten – KI-gestütztes Spielzeug erobert die Kinderzimmer. Doch während der Markt boomt, hinkt die Regulierung weit hinterher: Belastbare Nachweise, dass diese Produkte für Kinder sicher sind, existieren schlicht nicht.
KI-gestütztes Spielzeug kommt ohne Sicherheitsnachweis auf den Markt
Spielzeug mit integrierter Künstlicher Intelligenz ist längst in den Regalen – doch belastbare Nachweise, dass diese Produkte für Kinder unbedenklich sind, fehlen weitgehend. Regulierungsbehörden und Verbraucherschützer warnen, dass die bestehenden Sicherheitsstandards nicht auf KI-fähige Geräte ausgelegt wurden.
Bestehende Regulierung greift nicht
Klassisches Spielzeug durchläuft vor dem Verkauf standardisierte Sicherheitsprüfungen – auf mechanische Risiken, Schadstoffe oder elektrische Gefahren. KI-gestütztes Spielzeug fällt zwar formal unter dieselben Anforderungen, doch die eigentliche Kernkomponente – das Sprachmodell oder das adaptive Verhalten des Systems – wird dabei kaum berücksichtigt.
Aktuelle Prüfverfahren sind nicht darauf ausgelegt zu bewerten, welche Inhalte ein Large Language Model im Gespräch mit einem Kind produziert, wie es auf emotionale Äußerungen reagiert oder welche Daten es verarbeitet und weiterleitet.
Das Problem ist struktureller Natur: Spielzeugregulierung fällt in die Zuständigkeit von Produktsicherheitsbehörden, während KI-Systeme zunehmend durch separate Rechtsrahmen – etwa den EU AI Act – erfasst werden. Beide Systeme greifen bei Konsumprodukten für Kinder bislang nicht nahtlos ineinander.
Risiken sind vielfältig und schwer messbar
Experten identifizieren mehrere Risikodimensionen:
Inhaltliche Ebene: Sprachmodelle können unvorhersehbare Antworten generieren, die für Kinder unangemessen oder verstörend sind – selbst wenn Hersteller Filter einsetzen.
Psychologische Dimension: KI-Spielzeug, das auf emotionale Signale reagiert und personalisierte Bindungen simuliert, kann bei Kindern Abhängigkeiten oder verzerrte Erwartungen an soziale Interaktionen erzeugen.
Datenschutz: Viele dieser Geräte sind dauerhaft mit dem Internet verbunden und zeichnen Gespräche auf – mit unklaren Regelungen zur Datenspeicherung und -weitergabe.
Hinzu kommt ein gravierendes Transparenzproblem: Eltern und Aufsichtspersonen können in der Regel nicht nachvollziehen, welches Modell im Hintergrund läuft, welche Version aktuell aktiv ist oder wie Software-Updates das Verhalten des Spielzeugs verändern.
Hersteller agieren in einer Grauzone
Der Markt für KI-Spielzeug wächst, und Hersteller nutzen den regulatorischen Spielraum aktiv aus. Produkte werden als lernfördernd oder als Begleiter für Kinder vermarktet, ohne dass unabhängige Stellen die entsprechenden Aussagen überprüft haben.
Eine unabhängige Zertifizierung existiert in diesem Bereich schlicht nicht.
Einige Anbieter verweisen auf interne Tests oder allgemeine Datenschutzerklärungen – das reicht Kritikern bei Weitem nicht aus. Die Europäische Union hat mit dem EU AI Act einen Rahmen geschaffen, der bestimmte KI-Anwendungen mit hohem Risiko strenger reguliert. Ob und wie KI-Spielzeug darunter fällt, ist noch nicht abschließend geklärt. Die Umsetzung relevanter Bestimmungen läuft schrittweise an – der Markt ist schneller.
Einordnung für deutsche Unternehmen
Für Hersteller, Importeure und Händler in Deutschland ergibt sich daraus eine konkrete Handlungspflicht. Wer KI-gestütztes Spielzeug vertreibt, bewegt sich in einem Bereich, in dem regulatorische Nachschärfungen absehbar sind.
Unternehmen sollten frühzeitig prüfen:
- Fallen ihre Produkte unter die Hochrisiko-Kategorien des EU AI Act?
- Sind entsprechende Dokumentationspflichten antizipiert?
- Ist die DSGVO-konforme Gestaltung der Datenverarbeitung bei Produkten sichergestellt, die Kinderstimmen und -gespräche erfassen?
Wer jetzt in Compliance investiert, vermeidet später kostspielige Nachrüstungen – und potenzielle Haftungsrisiken.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”