KI-Sicherheit

Anthropic Claude Sicherheitsbericht – KI-Evaluierung an ihren Grenzen
KI-Sicherheit, wt

Anthropics Sicherheitsbericht zu Claude: Messlücken beim eigenen System

Anthropic hat mit dem Sicherheitsbericht zu seinem neuesten Modell Claude Mythos ungewöhnlich offen eingeräumt, dass die eigenen Evaluierungsmethoden mit der Leistungsfähigkeit des Systems nicht mehr Schritt halten. Der Bericht dokumentiert konkrete Risiken – und offenbart dabei ein strukturelles Problem, das weit über dieses einzelne Modell hinausgeht.

Cyberattack warning concept with digital code and security visualization
KI-Sicherheit, wt

Anthropic warnt vor Cyberangriffs-Potenzial seines neuen KI-Modells

Anthropic hat sein neuestes Large Language Model mit einer ungewöhnlich offenen Sicherheitswarnung veröffentlicht: Das Modell besitze nachweislich Fähigkeiten, die für Cyberangriffe missbraucht werden könnten. Für Unternehmen stellt sich damit nicht mehr die Frage, ob KI-gestützte Angriffe kommen, sondern wann – und die meisten Organisationen sind darauf kaum vorbereitet.

Cybersecurity Initiative gegen KI-gestützte Angriffe auf kritische Infrastruktur
KI-Sicherheit, wt

Anthropic startet branchenweite Initiative zum Schutz kritischer Infrastruktur vor KI-gestützten Cyberangriffen

Anthropic hat gemeinsam mit mehreren Wettbewerbern eine neue Sicherheitsinitiative ins Leben gerufen, die verhindern soll, dass Large Language Models für Angriffe auf kritische Infrastrukturen missbraucht werden. Das Projekt namens „Glasswing” richtet sich gezielt gegen die wachsende Bedrohung durch KI-gestützte Hacking-Methoden und soll branchenweite Standards etablieren.

Scroll to Top