Apples stille Machtdemonstration: Als der KI-Chatbot Grok zur Erstellung nicht einvernehmlicher Deepfakes missbraucht wurde, griff Apple diskret aber wirkungsvoll ein – und zeigt damit, wie App-Store-Betreiber zur faktischen Regulierungsinstanz für KI-Inhalte werden.
Apple drohte mit App-Store-Ausschluss: Grok und das Deepfake-Problem
Apples App Store hat im Januar diskret Druck auf xAI und X ausgeübt, nachdem Grok in die Kritik geraten war: Der KI-Chatbot ermöglichte es Nutzern, ohne nennenswerte Hürden nicht einvernehmliche sexuelle Deepfakes zu erstellen. Wie aus einem Schreiben an US-Senatoren hervorgeht, drohte Apple mit dem Ausschluss aus dem App Store – und forderte einen konkreten Plan zur Verbesserung der Inhaltsmoderation.
Unkontrollierte Generierung von Deepfakes auf X
Der Vorfall ereignete sich Anfang 2026, als Grok – zugänglich sowohl über die X-Plattform als auch als eigenständige App – für eine Welle nicht einvernehmlicher sexueller Bildmanipulationen genutzt wurde. Nutzer konnten reale Personen mithilfe der KI virtuell entkleiden; besonders betroffen waren Frauen, darunter offenbar auch Minderjährige. Die fehlenden Schutzmaßnahmen des Systems wurden öffentlich stark kritisiert, die Reaktion von xAI galt als unzureichend.
Apple teilte den US-Senatoren mit, das Unternehmen habe „die Teams hinter X und Grok kontaktiert, nachdem es Beschwerden erhalten und über die Medien von dem Skandal erfahren hatte.”
— aus dem von NBC News eingesehenen Schreiben
Apple forderte demnach einen Aktionsplan zur Verbesserung der Inhaltsmoderation – andernfalls drohte der Ausschluss aus dem App Store.
Stille Intervention statt öffentlichem Vorgehen
Bemerkenswert ist der Ton dieser Intervention: Apple handelte hinter verschlossenen Türen, während die Vorfälle öffentlich dokumentiert wurden und Kritik an einem zu zögerlichen Vorgehen laut wurde. Der Schritt illustriert, wie Plattformbetreiber als faktische Regulierungsinstanzen fungieren – mit erheblichem Hebel gegenüber App-Anbietern, jedoch ohne formalisiertes Verfahren oder Transparenzpflicht gegenüber der Öffentlichkeit.
Grok verbleibt weiterhin im App Store, was darauf hindeutet, dass xAI den Anforderungen Apples in ausreichendem Maße nachgekommen ist. Eine öffentliche Stellungnahme zu den getroffenen Maßnahmen blieb das Unternehmen jedoch schuldig.
Plattformverantwortung als wachsendes Compliance-Thema
Der Fall ist kein Einzelfall: Er reiht sich in eine Serie von Auseinandersetzungen zwischen App-Store-Betreibern und KI-Anbietern ein, in denen die Moderation generativer Inhalte zum entscheidenden Streitpunkt wird. Apples Richtlinien untersagen explizit:
- sexuell explizite Inhalte
- Anwendungen, die zur Belästigung oder Schädigung von Personen eingesetzt werden können
Die Umsetzung dieser Regeln auf KI-generierte Inhalte stellt Plattformbetreiber vor neue technische und rechtliche Herausforderungen.
In den USA beraten mehrere Bundesstaaten sowie der Kongress derzeit über gesetzliche Regelungen zu nicht einvernehmlichen Deepfakes. In der EU greift bereits der AI Act mit Anforderungen an Transparenz und Risikobewertung für bestimmte KI-Anwendungen.
Relevanz für deutsche Unternehmen
Für deutsche Unternehmen, die generative KI-Tools in ihre Produkte oder internen Prozesse integrieren, unterstreicht dieser Fall eine zentrale Compliance-Frage: Welche Inhalte lassen sich mit den verwendeten Systemen erzeugen – und welche Haftungsrisiken entstehen daraus?
Gerade im Kontext des EU AI Acts und bestehender Persönlichkeitsrechte ist eine sorgfältige Prüfung der eingesetzten Modelle und ihrer Schutzmaßnahmen keine optionale Due-Diligence-Maßnahme, sondern rechtlich gebotene Sorgfalt.
Quelle: The Verge AI