Sicherheitsbedenken veranlassen Unternehmen zur kritischeren Bewertung von Open-Source-KI

Ein US-Unternehmen hat den Einsatz von Open-Source-KI-Modellen nach einer internen Sicherheitsbewertung komplett eingestellt. Der Fall wirft grundlegende Fragen über die Risiken offener KI-Infrastrukturen auf – und sendet ein Warnsignal an eine Branche, die Offenheit lange als uneingeschränkten Vorteil betrachtete.

Sicherheitsbedenken zwingen Unternehmen zur Abkehr von Open-Source-KI

Wenn Transparenz zum Risiko wird

Open-Source-Large-Language-Models galten lange als attraktive Alternative zu proprietären Lösungen: niedrigere Kosten, volle Kontrolle über die Infrastruktur, keine Abhängigkeit von einzelnen Anbietern. Doch genau diese Offenheit birgt Risiken, die Unternehmen zunehmend ernst nehmen. Der nun bekannt gewordene Fall zeigt, dass der frei zugängliche Quellcode und die öffentlich einsehbaren Trainingsgewichte nicht nur Vorteile mitbringen – sie erweitern auch die Angriffsfläche erheblich.

Das betroffene Unternehmen entschied sich nach einer internen Sicherheitsbewertung, auf geschlossene, kommerziell betriebene KI-Systeme umzustellen. Ausschlaggebend waren Bedenken hinsichtlich der Lieferkettensicherheit, fehlender Garantien zur Datenverarbeitung sowie der schwierigen Nachvollziehbarkeit von Modifikationen an öffentlich verfügbaren Modellen.

„Der frei verfügbare Quellcode ist nicht länger nur ein Vorteil – er wird zur kalkulierten Schwachstelle.”


Die unterschätzte Komplexität der KI-Lieferkette

Ein zentrales Problem bei Open-Source-KI-Modellen ist die mangelnde Transparenz über Herkunft und Integrität der Trainingsgewichte. Anders als bei klassischer Open-Source-Software, bei der der Quellcode geprüft und reproduzierbar kompiliert werden kann, lassen sich KI-Modellgewichte kaum auf schädliche Manipulationen hin analysieren.

Sogenannte „Model Poisoning”-Angriffe – bei denen Trainingsdaten oder Gewichte gezielt manipuliert werden – sind schwer zu erkennen und können das Verhalten eines Modells subtil und dauerhaft verändern.

Hinzu kommt das Risiko durch nicht verifizierte Fine-Tuning-Versionen: Viele Unternehmen greifen nicht auf die Originalmodelle zurück, sondern auf abgeleitete Versionen, die von Dritten auf Plattformen wie Hugging Face bereitgestellt werden. Die Provenienz dieser Varianten ist häufig unklar.


Compliance-Druck verschärft die Lage

Neben technischen Risiken spielt der regulatorische Rahmen eine wachsende Rolle. Mit dem EU AI Act und bestehenden Datenschutzanforderungen unter der DSGVO stehen Unternehmen vor der Frage, wie sie den Einsatz von KI-Modellen rechtssicher dokumentieren und kontrollieren können.

Open-Source-Modelle bieten zwar theoretisch volle Datenkontrolle – setzen aber umfangreiche interne Kompetenzen zur sicheren Konfiguration, Überwachung und Aktualisierung voraus.

Fehlen diese Ressourcen, entsteht ein Sicherheitsgefälle, das gerade bei kleineren und mittleren Unternehmen problematisch sein kann.


Proprietäre Anbieter profitieren – aber nicht ohne Vorbehalte

Die Entwicklung dürfte Anbietern wie OpenAI, Anthropic oder Google DeepMind in die Hände spielen, die ihre Systeme mit umfangreichen Sicherheitszertifizierungen, Audit-Mechanismen und vertraglichen Haftungsregelungen bewerben.

Allerdings bedeutet der Wechsel zu proprietären Lösungen keineswegs den Wegfall aller Risiken – er verschiebt sie lediglich:

  • Vendor Lock-in: Abhängigkeit von einem einzigen Anbieter
  • Eingeschränkte Einsicht in das tatsächliche Modellverhalten
  • Datenweitergabe an Drittanbieter bleibt ein relevanter Faktor

Einordnung für deutsche Unternehmen

Für deutsche Unternehmen – insbesondere in regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen oder kritischer Infrastruktur – unterstreicht der Fall die Notwendigkeit einer strukturierten KI-Risikobewertung, unabhängig davon, ob Open-Source- oder proprietäre Modelle eingesetzt werden.

Der EU AI Act wird ab 2026 verbindliche Anforderungen an Hochrisikosysteme stellen – darunter Pflichten zur Dokumentation, Nachvollziehbarkeit und Datensicherheit.

Wer jetzt entsprechende Governance-Strukturen aufbaut, ist besser positioniert – sowohl gegenüber Aufsichtsbehörden als auch gegenüber potenziellen Sicherheitsvorfällen.


Quelle: ZDNet AI

Scroll to Top