KI-Spielzeug auf dem Markt: Fehlende Sicherheitsstandards als Risiko für Hersteller und Handel

KI-gestützte Spielzeuge für Kinder sind längst im Handel – doch verbindliche Sicherheitsstandards fehlen noch immer. Für Hersteller, Händler und Eltern entsteht dadurch ein regulatorisches Vakuum mit erheblichem Haftungspotenzial.

KI-Spielzeug auf dem Markt: Fehlende Sicherheitsstandards als Risiko für Hersteller und Handel

Marktwachstum ohne begleitende Regulierung

Der Markt für KI-basiertes Spielzeug wächst seit mehreren Jahren deutlich. Sprechende Puppen, lernfähige Roboter und interaktive Geräte mit integrierten Large Language Models richten sich zunehmend an Kinder im Vorschul- und Grundschulalter. Diese Produkte können natürliche Sprache verarbeiten, auf Fragen antworten und sich an frühere Interaktionen anpassen.

Eine systematische Überprüfung, ob solche Systeme für die Zielgruppe – Kinder unterschiedlicher Altersstufen mit unterschiedlichem Entwicklungsstand – tatsächlich unbedenklich sind, existiert bislang nicht. Weder auf EU-Ebene noch in den USA gibt es spezifische Sicherheitsstandards, die explizit auf KI-Funktionen in Spielzeugen zugeschnitten sind. Bestehende Spielzeugrichtlinien wurden vor der Ära generativer KI entwickelt und erfassen deren spezifische Risiken nur unzureichend.

Weder auf EU-Ebene noch in den USA existieren spezifische Sicherheitsstandards, die explizit auf KI-Funktionen in Spielzeugen zugeschnitten sind.


Konkrete Risikobereiche

Experten identifizieren mehrere Problembereiche:

1. Fehlerhafte oder unangemessene Inhalte
Large Language Models können unangemessene oder faktisch falsche Inhalte ausgeben – ein Risiko, das bei klassischen Spielzeugen schlicht nicht existiert.

2. Datenschutz und Sprachaufzeichnung
Viele Geräte sammeln Sprachdaten, was datenschutzrechtliche Fragen aufwirft. Unter der DSGVO haben diese besondere Brisanz, da es sich um Daten Minderjähriger handelt.

3. Psychologische Langzeitwirkungen
Der Einfluss persistenter, adaptiver KI-Interaktionen auf Kinder ist wissenschaftlich kaum erforscht. Kinder können Schwierigkeiten haben, zwischen einer Maschine und einem echten Gesprächspartner zu unterscheiden – insbesondere wenn das System bewusst auf eine menschenwirksame Interaktion ausgelegt ist.


Regulatorischer Flickenteppich in Europa

Innerhalb der EU fällt KI-Spielzeug grundsätzlich unter den AI Act, der im August 2024 in Kraft getreten ist. Allerdings sind viele konkrete Ausführungsbestimmungen noch in Erarbeitung. Produkte, die direkt mit Kindern interagieren, könnten als hochriskante KI-Systeme eingestuft werden – was deutlich striktere Anforderungen an Transparenz, Dokumentation und Konformitätsbewertung nach sich zöge. Verbindliche Entscheidungen dazu stehen jedoch aus.

Die bestehende EU-Spielzeugrichtlinie (2009/48/EG) adressiert physische Sicherheitsanforderungen – nicht aber die spezifischen Eigenheiten adaptiver KI-Systeme.

Die Lücke zwischen bestehendem Produktrecht und neuer Technologie ist derzeit das zentrale regulatorische Problem.


Haftungsfragen für den Handel

Für Unternehmen, die solche Produkte vertreiben, entstehen Haftungsrisiken, die über das klassische Produkthaftungsrecht hinausgehen. Mit der EU-Produkthaftungsrichtlinie, die seit Ende 2024 auch Software und KI-Systeme explizit einschließt, verändert sich die rechtliche Verantwortungslandschaft spürbar.

Händler und Importeure, die KI-Spielzeuge ohne ausreichende Sicherheitsdokumentation in den EU-Markt bringen, könnten im Schadensfall in eine schwierige Beweislage geraten.

Für deutsche Unternehmen – ob als Hersteller, Importeur oder Händler – empfiehlt sich daher eine proaktive Risikoabschätzung:

  • Welche Daten erfasst das Produkt?
  • Wie wird das Sprachmodell abgesichert?
  • Welche Transparenzpflichten gegenüber Eltern bestehen?

Unternehmen, die bereits jetzt interne Compliance-Prozesse aufbauen, sind gegenüber dem Wettbewerb deutlich besser positioniert.

Der AI Act wird in den kommenden Monaten konkretere Anforderungen für interaktive KI-Systeme für Kinder hervorbringen. Die Zeit zur Vorbereitung ist jetzt.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top