YouTube erweitert sein KI-gestütztes Erkennungssystem für gefälschte Darstellungen auf Prominente aus allen Branchen – und setzt damit einen Präzedenzfall, der auch für den gewerblichen Markenschutz wegweisend werden könnte.
YouTube weitet KI-Gesichtserkennung auf Prominente aus – Technologie mit Potenzial für den Unternehmensschutz
YouTube baut seinen Schutz gegen KI-generierte Deepfakes aus: Die Plattform stellt Prominenten und deren Management ab sofort Werkzeuge zur Verfügung, mit denen unerlaubt erstellte Darstellungen ihrer Person aufgespürt und entfernt werden können. Die zugrundeliegende Technologie zur KI-Gesichtserkennung könnte mittelfristig auch für Unternehmen relevant werden, die ihre Markenpräsenz schützen wollen.
Erweiterung eines bestehenden Systems
YouTube hatte das sogenannte AI Likeness Detection-Tool zunächst für Musiker entwickelt, um gefälschte KI-Versionen bekannter Stimmen und Gesichter auf der Plattform zu identifizieren. Nun wird der Anwendungsbereich auf Prominente aus anderen Branchen ausgedehnt – darunter Schauspieler, Sportler und Medienpersönlichkeiten.
Betroffene Personen sowie ihre Agenturen und Anwälte erhalten Zugang zu einem Dashboard, über das sie verdächtige Inhalte melden und deren Entfernung beantragen können. Die Erkennung erfolgt automatisiert über einen Abgleich von Videomaterial mit bekannten Referenzdaten der jeweiligen Person. YouTube überprüft die gemeldeten Inhalte anschließend und entscheidet über eine Löschung – nach eigenen Angaben unter Berücksichtigung von Kontext und möglichem Satire-Charakter der Inhalte.
Deepfakes als wachsendes Rechtsproblem
Der Schritt kommt zu einem Zeitpunkt, an dem gefälschte KI-Darstellungen realer Personen rechtlich zunehmend unter Druck geraten.
Mehrere US-Bundesstaaten haben in den vergangenen Monaten Gesetze verabschiedet, die den Missbrauch KI-generierter Abbilder ohne Einwilligung der betroffenen Person unter Strafe stellen.
Auch auf EU-Ebene adressiert der AI Act entsprechende Risiken, wenngleich konkrete Durchsetzungsmechanismen noch in der Entwicklung sind. Für Plattformbetreiber wie YouTube steigt damit der Druck, proaktive Schutzmaßnahmen bereitzustellen – nicht nur aus ethischen Gründen, sondern auch um Haftungsrisiken zu minimieren.
Relevanz für Markenverantwortliche
Bislang richtet sich das Tool ausschließlich an Privatpersonen mit öffentlichem Profil. Für Unternehmen, deren Markenbotschafter, Führungskräfte oder Produktdarstellungen missbräuchlich in KI-generierten Videos verwendet werden, existiert noch kein vergleichbarer institutioneller Schutzrahmen auf YouTube.
Dennoch deutet die Ausweitung des Systems auf eine klare Richtung hin:
Plattformen entwickeln zunehmend skalierbare Mechanismen zur Erkennung manipulierter Inhalte – und öffnen diese perspektivisch auch für gewerbliche Anwendungsfälle.
Anbieter wie Google, Meta und Microsoft investieren parallel in entsprechende Detection-Infrastruktur. Für deutsche Unternehmen empfiehlt sich daher bereits jetzt eine strategische Auseinandersetzung mit dem Thema. Zentrale Fragen dabei:
- Wer sind die Gesichter der eigenen Marke, und welche digitalen Abbilder existieren öffentlich?
- Über welche rechtlichen Instrumente verfügt man im Fall eines Missbrauchs?
- Sind interne Prozesse bereit, mit der rasanten Entwicklung der Plattform-Schutzmechanismen Schritt zu halten?
Die technischen Schutzoptionen entwickeln sich schnell – rechtliche und organisatorische Strukturen sollten nicht hinterherhinken.
Quelle: YouTube Expands Its AI Likeness Detection Technology to Celebrities – TechCrunch