KI-Sicherheit

Brandanschlag auf OpenAI-Hauptquartier und Sam Altmans Wohnhaus
KI-Sicherheit, wt

Bundesanklage nach Anschlägen auf OpenAI-Chef und Firmensitz

Ein Mann aus Texas steht in den USA vor Bundesgericht, nachdem er am 10. April 2026 einen Molotow-Cocktail auf das Wohnhaus von OpenAI-CEO Sam Altman geworfen und anschließend versucht hat, in das Hauptquartier des Unternehmens in San Francisco einzudringen. Daniel Moreno-Gama wurde noch am selben Tag verhaftet. Die Anklagebehörden werfen ihm vor, mit der Absicht aus Texas angereist zu sein, Altman zu töten.

Grafana-Dashboard mit KI-Assistent und Sicherheitswarnung
KI-Sicherheit, wt

GrafanaGhost: Wie KI-Assistenten Unternehmensdaten ohne klassischen Angriff preisgeben können

Sicherheitsforscher haben eine Angriffstechnik namens „GrafanaGhost” dokumentiert, bei der KI-gestützte Analyseumgebungen dazu gebracht werden, sensible Unternehmensdaten an Unbefugte weiterzuleiten – ohne dass ein klassischer Einbruch in Systeme notwendig ist. Die Methode nutzt Schwachstellen in der Art, wie Large Language Models in Unternehmenstools eingebettet sind und auf Datenquellen zugreifen. Für Unternehmen, die KI-Assistenten in ihre Monitoring- und Analyseplattformen integriert haben, ergibt sich daraus konkreter Handlungsbedarf.

Ein Psychiater sitzt einem Gesprächspartner gegenüber, auf dem Tisch liegt ein aufgeschlagenes Notizbuch
KI-Sicherheit, wt

Anthropic lässt Claude psychiatrisch begutachten

Anthropic hat sein KI-Modell Claude im Rahmen eines ungewöhnlichen Evaluierungsverfahrens über rund 20 Stunden psychiatrischen Interviews unterzogen. Ziel war es, die psychologische Stabilität des Modells systematisch zu messen und gezielt zu verbessern – ein Ansatz, der Fragen zur Reife aktueller KI-Sicherheitsmethoden aufwirft.

Anthropic KI-Sicherheit und Cybersecurity
KI-Sicherheit, wt

Anthropics Mythos-Modell: Eingeschränkte Veröffentlichung sorgt für Diskussionen

Anthropic hat diese Woche bekanntgegeben, dass das Unternehmen sein neuestes KI-Modell namens Mythos nur in begrenztem Umfang veröffentlichen wird. Als Begründung nennt Anthropic die außergewöhnliche Fähigkeit des Modells, Sicherheitslücken in weit verbreiteter Software zu identifizieren. Kritiker fragen jedoch, ob hinter der Entscheidung tatsächlich Sicherheitsbedenken stecken – oder primär geschäftliche Interessen.

Digitale Cybersicherheit – Serverraum mit Netzwerkverbindungen
KI-Sicherheit, wt

OpenAI plant kontrollierten Zugang zu Cybersicherheits-Modell

OpenAI arbeitet einem Bericht von Axios zufolge an einem neuen KI-Modell mit erweiterten Cybersicherheits-Fähigkeiten, das nicht öffentlich zugänglich gemacht werden soll. Stattdessen plant das Unternehmen, den Zugang auf eine kleine, vorab geprüfte Gruppe von Unternehmen zu beschränken – aus Sicherheitsgründen.

Cybersecurity lock and digital network
KI-Sicherheit, wt

OpenAI verzögert Modell-Launch wegen Cybersecurity-Bedenken

OpenAI führt das nächste große Sprachmodell nicht auf einen Schlag ein, sondern in kontrollierten Stufen – und begründet das explizit mit Sicherheitsrisiken. Der gestufte Rollout signalisiert, dass selbst der Marktführer bei generativer KI den Druck spürt, verantwortungsvoll mit potenziell gefährlichen Fähigkeiten umzugehen.

Scroll to Top