Sprechende Puppen und lernfähige Roboter mit eingebetteten KI-Modellen sind längst in Kinderzimmern angekommen – doch eine systematische Sicherheitsbewertung dieser Technologie lässt auf sich warten.
KI-gestützte Spielzeuge auf dem Massenmarkt – Sicherheitsfragen bleiben offen
Sprechende Puppen, interaktive Roboter und lernfähige Spielgefährten mit eingebetteten Large Language Models erobern die Regale des Spielzeughandels. Die Technologie ist bereits bei Kindern im Einsatz – eine belastbare Sicherheitsbewertung fehlt bislang weitgehend.
Markt wächst schneller als die Regulierung
KI-betriebene Spielzeuge sind kein Zukunftsszenario mehr. Produkte, die natürliche Sprache verstehen, auf Fragen antworten und sich an Vorlieben von Kindern anpassen, sind in vielen Haushalten bereits präsent. Hersteller vermarkten die Geräte als Lernbegleiter und kreative Spielpartner. Was dabei fehlt, sind unabhängige Langzeitstudien darüber, wie kontinuierliche Interaktionen mit KI-Systemen die kognitive und soziale Entwicklung von Kindern beeinflussen.
Forschende und Verbraucherschützer warnen: Die Einführungsgeschwindigkeit dieser Produkte übersteigt den Stand der Sicherheitsforschung deutlich.
Im Gegensatz zu klassischem Spielzeug, dessen physische Risiken vergleichsweise gut untersucht sind, bewegen sich KI-Spielzeuge in einem regulatorischen Graubereich: Datenschutz, psychologische Einflussnahme und die Qualität der KI-generierten Inhalte werden selten systematisch geprüft, bevor ein Produkt auf den Markt kommt.
Datenschutz als zentrales Risiko
Ein wesentlicher Kritikpunkt betrifft die Datenerfassung. KI-Spielzeuge sind auf Sprachaufnahmen und Nutzungsverhalten angewiesen, um zu funktionieren. Diese Daten werden häufig in Cloud-Infrastrukturen übertragen und verarbeitet – teils in Rechenzentren außerhalb der EU. Damit geraten Hersteller schnell in Konflikt mit der Datenschutz-Grundverordnung (DSGVO), die für Daten Minderjähriger besondere Schutzanforderungen vorsieht.
Bereits 2017 hatte das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Puppe „Cayla” als verbotenes Abhörgerät eingestuft und deren Verkauf in Deutschland untersagt. Ähnliche Bedenken sind heute auf eine breitere Produktkategorie anwendbar, die technisch deutlich ausgefeilter ist.
Inhaltskontrolle und psychologische Wirkung
Ein weiteres Problem ist die inhaltliche Zuverlässigkeit der eingesetzten Sprachmodelle. Large Language Models können faktisch falsche Aussagen produzieren oder auf unerwartete Fragen von Kindern in ungeeigneter Weise reagieren. Mechanismen zur Inhaltskontrolle existieren, sind jedoch nicht standardisiert und werden von Herstellern unterschiedlich streng umgesetzt.
Kinder können intensive emotionale Bindungen zu sprechenden, „verständnisvollen” KI-Charakteren entwickeln – mit möglicherweise weitreichenden Folgen für die Entwicklung sozialer Kompetenzen.
Psychologen diskutieren, welche Auswirkungen das auf die Fähigkeit zur Unterscheidung von menschlicher und maschineller Interaktion haben kann – gesicherte Erkenntnisse liegen dazu kaum vor.
EU-Regulierung greift erst schrittweise
Der EU AI Act klassifiziert Systeme, die auf Kinder abzielen und deren Verhalten beeinflussen können, grundsätzlich als risikorelevant. Die konkreten Anforderungen für KI-Spielzeuge werden jedoch erst mit den Durchführungsrechtsakten präzisiert, die schrittweise bis 2027 in Kraft treten. Bis dahin bleibt der Markt weitgehend selbstreguliert.
Handlungsempfehlung für Unternehmen
Für Unternehmen, die KI-Spielzeuge entwickeln, vertreiben oder als Zulieferer an entsprechenden Produkten beteiligt sind, empfiehlt sich eine frühzeitige Auseinandersetzung mit den Anforderungen des EU AI Act sowie der einschlägigen DSGVO-Regelungen für Minderjährigendaten.
Wer jetzt in robuste Datenschutz- und Sicherheitsarchitekturen investiert, vermeidet kostspielige Nachbesserungen, wenn die regulatorischen Anforderungen in den nächsten Jahren schärfer werden.
Quelle: New Scientist Tech