Sprechende Roboter, lernende Plüschtiere, dialogfähige Puppen – KI-gestützte Spielzeuge erobern europäische Kinderzimmer, noch bevor Regulierer wissen, wie sie diese Produkte sicher machen sollen. Eine strukturelle Schutzlücke mit weitreichenden Folgen für Kinder, Eltern und Unternehmen.
KI-Spielzeug auf dem Markt – Sicherheitsnachweise fehlen
KI-gestützte Spielzeuge für Kinder verbreiten sich in europäischen Haushalten, bevor verlässliche Sicherheitsstandards für diese Produktkategorie existieren. Experten warnen vor einer strukturellen Regulierungslücke, die nicht nur Verbraucher, sondern auch Hersteller und Händler in rechtlich unsicheres Terrain führt.
Produkte eilen der Regulierung voraus
Sprechende Puppen, interaktive Lernroboter und dialogfähige Plüschtiere, die auf Large Language Models basieren, sind längst im Einzelhandel erhältlich. Die zugrundeliegenden Systeme können auf Kinderfragen reagieren, Geschichten generieren und Konversationen führen – Fähigkeiten, die klassische Spielzeug-Sicherheitsprüfungen schlicht nicht vorgesehen haben.
Traditionelle Zertifizierungsverfahren prüfen physische Eigenschaften wie Materialzusammensetzung, Verschluckbarkeit von Kleinteilen oder elektrische Sicherheit. Ob ein Sprachmodell für Kinder geeignete Inhalte produziert, ist bislang kein standardisierter Prüfgegenstand.
Bestehende Rahmenwerke greifen nicht vollständig
In der EU gilt für Spielzeug die Spielzeugrichtlinie 2009/48/EG, ergänzt durch allgemeine Produktsicherheitsvorschriften. Diese Regelwerke wurden jedoch konzipiert, bevor generative KI als Konsumprodukt relevant wurde.
Der EU AI Act tritt seit August 2024 schrittweise in Kraft – eine eindeutige Einordnung von KI-Spielzeug als Hochrisikoanwendung fehlt jedoch bislang, obwohl die Zielgruppe besonders schutzbedürftig ist.
Hinzu kommt das Datenschutzproblem: KI-Spielzeuge erfassen Sprachdaten von Minderjährigen. Unter der DSGVO und dem deutschen Bundesdatenschutzgesetz gelten für die Verarbeitung von Kinderdaten erhöhte Anforderungen an Einwilligung und Datensparsamkeit – Anforderungen, deren Umsetzung bei vernetzten Spielzeugen in der Praxis schwer zu überprüfen ist.
Hersteller in der Grauzone
Für Unternehmen, die KI-Spielzeug entwickeln oder vertreiben, ergibt sich daraus eine unkomfortable Situation:
Das CE-Kennzeichen signalisiert Übereinstimmung mit den geltenden Richtlinien – nicht Übereinstimmung mit einem noch nicht existierenden KI-Sicherheitsstandard für Kinder.
Formale Compliance ist möglich, ohne dass tatsächliche Sicherheit für die Zielgruppe gewährleistet ist. Im Schadensfall – etwa bei psychisch belastenden oder altersungeeigneten Ausgaben eines Sprachmodells – dürfte die Haftungsfrage juristisch komplex werden.
Branchenverbände und Verbraucherschutzorganisationen fordern deshalb, dass Aufsichtsbehörden spezifische Leitlinien für KI-gestützte Kinderprodukte entwickeln. In einigen EU-Mitgliedstaaten laufen bereits Untersuchungen entsprechender Produkte, ohne dass einheitliche Prüfkriterien vorliegen.
Einordnung für deutsche Unternehmen
Für Hersteller, Händler und Importeure in Deutschland bedeutet die aktuelle Lage erhöhte Sorgfaltspflicht aus eigenem Antrieb. Konkret empfiehlt sich:
- Interne Evaluierungsprozesse für Modellausgaben etablieren
- Datenschutzfolgeabschätzungen für die Sprachdatenverarbeitung durchführen
- Entwicklung des EU AI Act sowie möglicher Produkthaftungsregelungen eng verfolgen
Mit dem Cyber Resilience Act, der ab 2027 für vernetzte Produkte gilt, kommt eine weitere Compliance-Ebene hinzu. Unternehmen, die jetzt proaktiv handeln, positionieren sich deutlich günstiger als solche, die auf verbindliche Standards warten.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”