Sprachfähige Puppen, lernende Roboter, interaktive KI-Begleiter – sie stehen längst im Regal. Doch während der Markt für KI-gestütztes Spielzeug boomt, hinkt die Regulierung hinterher. Für Hersteller, Importeure und Händler entstehen daraus erhebliche Haftungsrisiken, die bislang kaum systematisch adressiert werden.
KI-Spielzeug ohne Sicherheitsnachweis: Hersteller und Händler tragen das Haftungsrisiko
Markt eilt der Regulierung voraus
KI-gestützte Spielzeuge kommunizieren mit Kindern, speichern Sprachdaten und passen ihr Verhalten dynamisch an. Was technisch möglich ist, unterliegt jedoch keinem einheitlichen Sicherheitsrahmen. Bestehende Spielzeugrichtlinien – in der EU geregelt durch die Spielzeugrichtlinie 2009/48/EG – wurden vor der breiten Verfügbarkeit von Large Language Models konzipiert und decken deren spezifische Risiken nur unzureichend ab.
Fragen wie psychologische Beeinflussung durch persistente KI-Charaktere, unbeabsichtigte Inhalte durch generative Modelle oder Datenschutzverstöße bei Minderjährigen fallen in Lücken des bestehenden Regelwerks.
Produkthaftung in der Grauzone
Das deutsche Produkthaftungsgesetz (ProdHaftG) sowie die EU-Produktsicherheitsverordnung (GPSR), die seit Dezember 2024 gilt, verpflichten Hersteller und Inverkehrbringer zur Risikobewertung. Doch wie bewertet man ein Produkt, dessen Ausgaben nicht vollständig vorhersehbar sind?
Generative KI-Systeme können Antworten produzieren, die außerhalb des Testkorpus liegen – ein strukturelles Problem, das klassische Konformitätsprüfungen nicht abbilden können.
Hinzu kommt die Datenschutzdimension: Spielzeuge, die Stimmen von Kindern aufnehmen und verarbeiten, unterliegen der DSGVO, die für personenbezogene Daten Minderjähriger besonders strenge Anforderungen stellt. Die belgische Datenschutzbehörde hatte bereits 2017 das Spielzeug „My Friend Cayla” verboten – ein Präzedenzfall, der zeigt, dass Aufsichtsbehörden in diesem Bereich durchaus handlungsfähig sind.
AI Act schließt Lücken nur teilweise
Der EU AI Act, der stufenweise bis 2026 vollständig in Kraft tritt, klassifiziert KI-Systeme, die mit Kindern interagieren, grundsätzlich als potenziell risikobehaftet. Systeme, die emotionale Reaktionen manipulieren oder auf unterbewusste Verhaltensmuster abzielen, sind unter bestimmten Bedingungen verboten.
Die praktische Abgrenzung zwischen erlaubter Personalisierung und unzulässiger Manipulation im Produktbereich Spielzeug bleibt weitgehend ungeklärt.
Aufsichtsbehörden und Hersteller bewegen sich in einem Raum, in dem Auslegungsfragen dominieren – mit erheblicher Rechtsunsicherheit auf beiden Seiten.
Unklare Beweislast bei Schadensfällen
Ein weiteres Problem liegt in der Nachweisbarkeit: Sollte ein Kind durch Interaktion mit einem KI-Spielzeug psychischen Schaden nehmen – etwa durch unangemessene Inhalte oder manipulative Gesprächsführung –, ist die Kausalitätskette schwer zu dokumentieren.
Versicherungen und Gerichte sind auf diese Fallkonstellation kaum vorbereitet. Die Beweislastverteilung nach dem ProdHaftG liegt beim Geschädigten, was für betroffene Familien eine hohe Hürde darstellt.
Einordnung für deutsche Unternehmen
Unternehmen, die KI-gestütztes Spielzeug herstellen, importieren oder vertreiben, sollten bereits jetzt handeln. Konkret bedeutet das:
- Risikobewertungen um KI-spezifische Szenarien erweitern
- Datenschutz-Folgenabschätzungen für Produkte mit Kinderdaten konsequent durchführen
- Konformitätsdokumentation auf die Anforderungen des AI Act ausrichten
Händler, die Produkte aus Drittstaaten importieren, tragen nach der GPSR eigene Verantwortung – und können sich nicht auf ausländische Hersteller verlassen.
Wer jetzt in Compliance investiert, vermeidet nicht nur regulatorisches Risiko, sondern gewinnt auch Vertrauen bei einer Zielgruppe, die beim Kauf von Kinderprodukten besonders sensibel reagiert.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”