Sprechende Teddybären, interaktive Roboter, lernende Puppen: KI-gestützte Spielzeuge erobern die Kinderzimmer – doch belastbare Sicherheitsnachweise existieren bis heute nicht. Regulierungsbehörden, Psychologen und Verbraucherschützer schlagen Alarm.
KI-Spielzeug auf dem Markt – Sicherheitsnachweise fehlen noch
Spielzeuge mit integrierten KI-Funktionen sind längst im Handel erhältlich, obwohl belastbare Erkenntnisse zu ihrer Sicherheit für Kinder bis heute fehlen. Regulierungsbehörden und Forscher warnen, dass die Markteinführung der technischen Überprüfung deutlich vorauseilt.
Produkte ohne gesicherte Grundlage
KI-gestützte Spielzeuge, die mit Kindern sprechen, auf deren Fragen antworten und individuelle Konversationen führen, sind in den vergangenen Monaten in zahlreichen Märkten eingeführt worden. Die zugrundeliegenden Large Language Models sind dabei dieselben Systeme, die auch in professionellen Anwendungen eingesetzt werden – allerdings ohne die spezifischen Sicherheitsüberprüfungen, die für ein kindgerechtes Umfeld notwendig wären.
Bislang existiert kein standardisiertes Testverfahren, das belegt, wie diese Systeme auf sensible oder verstörende Eingaben von Kindern reagieren.
Datenschutz und psychologische Risiken
Neben der inhaltlichen Unvorhersehbarkeit der KI-Ausgaben stehen Datenschutzfragen im Mittelpunkt der Kritik. Gespräche zwischen Kindern und KI-Spielzeugen werden in der Regel auf Servern der Hersteller verarbeitet, häufig ohne transparente Angaben zur Speicherdauer oder Weitergabe der Daten.
Psychologen und Kinderentwicklungsexperten weisen zudem auf noch wenig erforschte Risiken hin:
Kinder, insbesondere in jüngeren Altersstufen, könnten Schwierigkeiten haben, die Grenzen zwischen einer KI-gestützten Unterhaltung und einer echten sozialen Beziehung zu erkennen.
Die langfristigen Auswirkungen auf soziale Kompetenz und emotionale Entwicklung sind nach aktuellem Stand nicht untersucht.
Regulierung kommt zu spät
In der Europäischen Union greift zwar der AI Act zunehmend, doch konkrete Vorgaben für KI-Spielzeuge befinden sich noch in der Entwicklungsphase. Die bestehende Spielzeugrichtlinie erfasst physische Sicherheitsaspekte, nicht aber die inhaltliche oder psychologische Dimension KI-gesteuerter Interaktionen.
Hersteller agieren derzeit weitgehend in einer regulatorischen Grauzone – eigene Sicherheitsversprechen sind freiwillig und schwer überprüfbar. Verbraucherschutzorganisationen fordern verbindliche Standards, bevor weitere Produkte in den Markt kommen.
Hersteller in der Verantwortung
Einige Unternehmen verweisen auf interne Content-Filter und altersgerechte Beschränkungen der Modelle. Unabhängige Tests haben jedoch gezeigt, dass solche Filter umgangen werden können oder unzuverlässig reagieren.
Eine systematische externe Überprüfung – vergleichbar mit klinischen Studien bei Medizinprodukten oder der CE-Kennzeichnung bei Elektrogeräten – existiert für diesen Produktbereich bislang nicht.
Einordnung für deutsche Unternehmen
Für Handelsunternehmen und Importeure in Deutschland ergibt sich daraus ein konkretes unternehmerisches Risiko. Wer KI-Spielzeuge vertreibt, trägt nach geltendem Produkthaftungsrecht Mitverantwortung für mögliche Schäden – auch wenn diese schwer bezifferbar sind.
Einkaufsverantwortliche sollten bereits jetzt:
- detaillierte Sicherheitsdokumentationen von Herstellern einfordern
- prüfen, ob DSGVO-Anforderungen vollständig eingehalten werden
- verbindliche Standards frühzeitig in Lieferverträgen verankern
Mit Inkrafttreten strengerer AI-Act-Bestimmungen in den kommenden Jahren dürfte der Druck auf nachträgliche Produktanpassungen erheblich steigen. Wer jetzt handelt, vermeidet spätere Haftungsrisiken und Rückrufkosten.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”