Apple setzt xAI ein Ultimatum: Grok-App droht Entfernung aus dem App Store

Apple droht dem KI-Unternehmen xAI mit der Entfernung der Grok-App aus dem App Store – wegen Deepfake-Funktionen, die gegen Plattform-Richtlinien verstoßen. Der Fall zeigt exemplarisch, wie Tech-Konzerne eine zweite Regulierungsebene jenseits staatlicher Gesetze etablieren.

Apple setzt xAI ein Ultimatum: Grok-App droht Entfernung aus dem App Store

Hintergrund: Was Grok gegen die Regeln verstieß

Die Chatbot-App Grok, entwickelt von Elon Musks KI-Unternehmen xAI, ermöglichte es Nutzern offenbar, fotorealistische Bilder von realen Personen zu generieren – ohne ausreichende Schutzmaßnahmen gegen Missbrauch. Apple sieht darin einen klaren Verstoß gegen seine Developer Guidelines, die explizit untersagen, Apps zu hosten, die zur Erstellung irreführender oder schädigender Inhalte genutzt werden können.

Konkret geht es um Inhalte, die das Erscheinungsbild realer Menschen ohne deren Einwilligung manipulieren oder verfälschen – sogenannte Deepfakes. Apple setzte xAI nach Berichten eine Frist, um die beanstandeten Funktionen zu korrigieren oder zu entfernen. Andernfalls droht die Entfernung der App aus dem Store.

Ob und in welchem Umfang xAI bereits Anpassungen vorgenommen hat, war zum Zeitpunkt der Veröffentlichung nicht abschließend geklärt.


App-Store-Kontrolle als Governance-Hebel

Der Vorfall illustriert, wie Apple seine Rolle als Plattformwächter zunehmend auch im Bereich KI-generierter Inhalte wahrnimmt. Der App Store ist für viele KI-Anbieter ein zentraler Distributionskanal für iOS-Nutzer – ein Ausschluss käme einem erheblichen Reichweitenverlust gleich.

Für xAI ist die Situation aus mehreren Gründen heikel: Grok gilt als eines der Kernprodukte des Unternehmens im direkten Wettbewerb mit ChatGPT, Gemini und anderen Large Language Models.

Ein App-Store-Ausschluss würde nicht nur die Nutzerbasis beschneiden, sondern auch einen Reputationsschaden in einem Markt bedeuten, in dem Vertrauen zunehmend zum Differenzierungsmerkmal wird.

Apple nutzt seine strukturelle Marktmacht, um Mindeststandards bei der Inhaltskontrolle durchzusetzen – auch ohne dass staatliche Regulierung dies explizit erzwingt.


Deepfakes als regulatorisches Dauerproblem

Das Thema Deepfakes steht seit Monaten im Fokus von Plattformbetreibern, Gesetzgebern und Unternehmensverantwortlichen. Relevante Regelwerke im Überblick:

  • EU AI Act: Verpflichtet KI-Anbieter, synthetisch generierte Inhalte transparent zu kennzeichnen.
  • Deutsches Urheberrecht & Persönlichkeitsrecht: Setzt zusätzliche rechtliche Grenzen für die ungenehmigte Verwendung von Personenabbildungen – unabhängig davon, ob sie KI-generiert sind oder nicht.

Dass nun Apple als privater Plattformbetreiber entsprechende Verstöße sanktioniert, zeigt: Neben staatlicher Regulierung etabliert sich eine zweite Governance-Ebene durch die Marktmacht großer Betriebssystem- und App-Store-Betreiber.


Einordnung für deutsche Unternehmen

Für Unternehmen, die KI-gestützte Bild- oder Videogenerierung in eigene Produkte oder Apps integrieren wollen, hat dieser Fall praktische Konsequenzen:

  • App-Store-Zulassungen sind kein einmaliger Akt, sondern ein fortlaufender Compliance-Prozess.
  • Apples Richtlinien – ebenso wie die Policies von Google Play – können jederzeit verschärft oder neu interpretiert werden.
  • Wer KI-Funktionen mit Personenbezug einsetzen möchte, sollte frühzeitig sowohl die Plattform-Guidelines als auch die einschlägigen Anforderungen des AI Acts prüfen und entsprechende technische Schutzmaßnahmen dokumentieren.

Quelle: CNET AI – Apple threatens to remove Grok from App Store

Scroll to Top