GPT-5.5 System Card: OpenAI veröffentlicht Sicherheitsdokumentation für Unternehmenseinsatz

Mit der Veröffentlichung der System Card zu GPT-5.5 liefert OpenAI erstmals eine strukturierte Sicherheits- und Compliance-Dokumentation für sein neuestes Sprachmodell – ein Schritt, der für Unternehmen in regulierten Branchen und im EU-Kontext zunehmend praktische Relevanz gewinnt.

GPT-5.5 System Card: OpenAI veröffentlicht Sicherheitsdokumentation für Unternehmenseinsatz

OpenAI hat eine System Card für das neue Modell GPT-5.5 veröffentlicht, die Compliance-relevante Informationen und Sicherheitsbewertungen für den professionellen Einsatz dokumentiert. Für Unternehmen, die das Modell in geschäftskritischen Prozessen einsetzen wollen, liefert das Dokument die Grundlage für eine strukturierte Risikoabwägung.


Was eine System Card ist und warum sie für Unternehmen relevant ist

System Cards sind OpenAIs standardisiertes Format zur Offenlegung von Modelleigenschaften, Einschränkungen und Sicherheitseinstufungen. Sie richten sich explizit an Unternehmenskunden, Entwickler und Compliance-Verantwortliche, die vor dem Deployment eines Modells dessen Risikoprofil einschätzen müssen.

Mit zunehmender regulatorischer Aufmerksamkeit – insbesondere durch den EU AI Act – gewinnen solche Dokumente als Teil der Compliance-Dokumentation an praktischer Bedeutung.


Sicherheitseinstufungen und Risikokategorien

Die System Card zu GPT-5.5 enthält Bewertungen zu zentralen Risikobereichen, darunter:

  • die Fähigkeit des Modells zur Generierung potenziell schädlicher Inhalte
  • Anfälligkeit gegenüber Prompt-Injection und Jailbreaking
  • Verhaltensweisen in sensitiven Themenbereichen

OpenAI klassifiziert GPT-5.5 auf Basis des internen Preparedness Frameworks, das Modelle anhand ihrer potenziellen Auswirkungen in Kategorien wie Cybersicherheit, biologische Risiken und gesellschaftliche Einflussnahme bewertet.

Nach aktuellem Stand stuft OpenAI das Modell in diesen Kategorien als handhabbar ein, ohne dass kritische Schwellenwerte überschritten werden.


Evaluierungen und Testmethodik

Ein wesentlicher Teil der Dokumentation beschreibt die Evaluierungsverfahren, die vor dem Release durchgeführt wurden. Dazu gehören:

  • interne Red-Teaming-Übungen
  • externe Sicherheitstests durch unabhängige Dritte

Die Ergebnisse sollen belegen, dass GPT-5.5 keine wesentlichen Fähigkeiten aufweist, die über jene früherer Modelle hinausgehen und neue, unkontrollierbare Risikoszenarien eröffnen würden.

Für Unternehmen ist dabei insbesondere die Dokumentation der Testgrenzen relevant: System Cards benennen ausdrücklich auch jene Bereiche, in denen Unsicherheiten bestehen bleiben.


Nutzungsrichtlinien und Einschränkungen

Die System Card verweist auf OpenAIs Usage Policies, die festlegen, für welche Anwendungsfälle GPT-5.5 nicht eingesetzt werden darf. Dazu zählen unter anderem:

  • die Generierung von Desinformation in großem Maßstab
  • der Einsatz in autonomen Waffensystemen
  • Anwendungen, die gezielt auf die Manipulation von Wahlprozessen abzielen

Unternehmen, die das Modell über die API oder ChatGPT Enterprise nutzen, sind vertraglich an diese Richtlinien gebunden und tragen entsprechende Sorgfaltspflichten.


Einordnung für deutsche Unternehmen

Für Unternehmen in Deutschland und der EU ist die System Card mehr als ein informatives Dokument:

Im Kontext des EU AI Act, der für Hochrisiko-KI-Anwendungen explizite Transparenz- und Dokumentationspflichten vorsieht, kann eine solche Herstellerdokumentation als Bestandteil der eigenen Compliance-Unterlagen genutzt werden.

Gleichzeitig ersetzt sie keine eigenständige Risikobewertung. IT- und Rechtsabteilungen sollten die veröffentlichten Evaluierungsergebnisse als Ausgangspunkt nutzen, nicht als abschließendes Urteil. Die vollständige System Card ist direkt über OpenAIs Website abrufbar und sollte vor dem produktiven Einsatz von GPT-5.5 in regulierten Bereichen gesichtet werden.


Quelle: OpenAI News

Scroll to Top