KI-Sicherheit

Sicherheitslücke im KI-Protokoll MCP – strukturelle Angriffsfläche für Unternehmen
KI-Sicherheit, wt

MCP-Sicherheitslücke: Wie das KI-Protokoll zur Angriffsfläche für Unternehmen wird

Das Model Context Protocol (MCP) hat sich als wichtiger Standard für die Anbindung von KI-Assistenten an externe Tools und Datenquellen etabliert – doch Sicherheitsforscher warnen vor einer strukturellen Schwachstelle, die Angreifern erheblichen Spielraum bietet. Die Lücke erinnert in ihrer Mechanik an klassische „Open Redirect”-Angriffe aus der Web-Ära und könnte Unternehmensumgebungen gefährden, die auf MCP-fähige KI-Systeme setzen.

Digitale Sicherheitsanalyse mit Code und Netzwerkvisualisierung
KI-Sicherheit, wt

Anthropics zurückgehaltenes Cybersecurity-Modell: Unabhängige Tests zweifeln an dessen Einzigartigkeit

Anthropic hält sein Cybersecurity-Modell Claude Mythos mit Verweis auf besondere Fähigkeiten zur Schwachstellenanalyse unter Verschluss – und begründet damit den Verzicht auf eine öffentliche Veröffentlichung. Zwei unabhängige Untersuchungen legen nun nahe, dass die demonstrierten Leistungen möglicherweise keine exklusiven Fähigkeiten dieses Modells darstellen.

Sicherheitsforscher analysiert KI-Schwachstellen an mehreren Monitoren
KI-Sicherheit, wt

KI-Red-Teaming 2026: Welche Tools Unternehmen zur Absicherung ihrer ML-Modelle einsetzen

Wer Large Language Models produktiv betreibt, trägt auch Verantwortung für deren Sicherheit. Red Teaming – das gezielte Angreifen eigener Systeme zur Aufdeckung von Schwachstellen – hat sich als Standardmethode etabliert, um KI-Modelle vor Prompt Injection, Jailbreaking und Datenvergiftung zu schützen. Der Markt an spezialisierten Tools dafür wächst entsprechend.

KI-Sicherheitsforschung: Schwachstellen in Large Language Models
KI-Sicherheit, wt

Anthropics KI-Sicherheitslücken lassen sich mit handelsüblichen Modellen reproduzieren

Sicherheitsforscher des Unternehmens Vidoc Security haben nachgewiesen, dass sich die alarmierenden Schwachstellen aus Anthropics „Mythos”-Forschung mit öffentlich verfügbaren Large Language Models nachbilden lassen – für weniger als 30 US-Dollar pro Scan. Die Erkenntnisse stellen die bisherige Annahme in Frage, dass solche Angriffsvektoren primär ein Problem spezialisierter Spitzenmodelle seien.

KI-Modell Vererbung unsichtbarer Eigenschaften
KI-Sicherheit, wt

Wie Large Language Models unerwünschte Eigenschaften an andere Modelle weitergeben

Ein im Fachjournal *Nature* veröffentlichter Forschungsbeitrag zeigt, dass Large Language Models beim Training auf KI-generierten Daten problematische Verhaltensweisen übernehmen können – selbst dann, wenn diese Eigenschaften im Trainingsmaterial nicht explizit vorhanden sind. Die Befunde von Oskar J. Hollinsworth und Samuel Bauer werfen grundlegende Fragen zur Qualitätskontrolle in KI-Entwicklungspipelines auf.

Spezialisiertes KI-Modell für Cybersicherheit
KI-Sicherheit, wt

OpenAI veröffentlicht spezialisiertes Cybersicherheitsmodell

OpenAI hat mit GPT-5.4-Cyber ein Large Language Model vorgestellt, das gezielt für den Einsatz in der defensiven Cybersicherheit entwickelt wurde. Der Zugang ist vorerst auf verifizierte Sicherheitsexperten beschränkt – ein Schritt, den das Unternehmen mit dem Missbrauchspotenzial der zugrunde liegenden Technologie begründet.

Unsichtbares Wasserzeichen: KI-generierte Bilder im Fokus der Sicherheitsforschung
KI-Sicherheit, wt

Googles KI-Wasserzeichen SynthID: Entwickler behauptet, System entschlüsselt zu haben

Ein Softwareentwickler behauptet, das KI-Wasserzeichen-System SynthID von Google DeepMind reverse-engineered zu haben – und damit zu zeigen, wie sich Markierungen aus KI-generierten Bildern entfernen oder in fremde Inhalte einfügen lassen. Google widerspricht der Darstellung. Der Vorfall wirft dennoch grundlegende Fragen zur Verlässlichkeit technischer Echtheitsnachweise auf.

Scroll to Top