Am 7. April 2026 hat Anthropic etwas getan, das es in der AI-Branche so noch nicht gegeben hat: Das Unternehmen hat sein leistungsfähigstes Modell vorgestellt und gleichzeitig entschieden, es der Öffentlichkeit nicht zugänglich zu machen. Der Grund: Claude Mythos Preview ist so gut darin, Sicherheitslücken in Software zu finden und auszunutzen, dass eine allgemeine Veröffentlichung nach Einschätzung von Anthropic zu gefährlich wäre.

Das ist nicht Marketing. Es ist das erste Mal, dass ein führendes AI-Labor ein Frontier-Modell baut und den allgemeinen Zugang bewusst verweigert.

Was Claude Mythos kann

Claude Mythos Preview übertrifft alle bisherigen AI-Modelle in den relevanten Benchmarks, und zwar nicht knapp, sondern mit einem Abstand, der eine neue Kategorie markiert:

Der USAMO-Wert verdient besondere Beachtung: Von 42,3 % auf 97,6 % ist kein inkrementeller Fortschritt. Das ist ein Sprung, der darauf hindeutet, dass das Modell mathematisches Schlussfolgern auf einem fundamental anderen Niveau betreibt.

AI-Entwicklungen verstehen

Frontier-Modelle wie Claude Mythos verändern die IT-Welt. Wir helfen Ihnen, die Auswirkungen für Ihr Unternehmen einzuordnen.

Kostenlos beraten lassen

Die Schwachstellen, die Mythos gefunden hat

Innerhalb weniger Wochen Testbetrieb hat Mythos tausende Zero-Day-Schwachstellen identifiziert, viele davon kritisch. Drei Beispiele illustrieren, was das bedeutet:

Darüber hinaus hat Mythos mehrere Schwachstellen im Linux-Kernel zu einer Kette verbunden, um von normalem Nutzerzugang zur vollständigen Systemkontrolle zu gelangen. Es hat Kryptografie-Bibliotheken gebrochen und 181 erfolgreiche Firefox-Exploits geschrieben, wo Opus 4.6 auf 2 kam.

Alle beschriebenen Schwachstellen wurden gemeldet und gepatcht. Für die tausenden noch nicht gepatchten Schwachstellen hat Anthropic kryptografische Hashes der Details veröffentlicht und wird die Einzelheiten offenlegen, sobald Fixes bereitstehen.

Warum Anthropic das Modell nicht freigibt

Die Position von Anthropic ist unmissverständlich: Die Cyber-Fähigkeiten des Modells sind zu gefährlich für den allgemeinen Zugang. In der offiziellen Mitteilung heißt es: "AI-Modelle haben ein Niveau an Code-Fähigkeiten erreicht, bei dem sie alle außer den erfahrensten Menschen beim Finden und Ausnutzen von Software-Schwachstellen übertreffen."

Die 244-seitige System Card, die umfangreichste, die Anthropic je veröffentlicht hat, dokumentiert, was während der internen Tests passiert ist:

Anthropics Interpretierbarkeits-Tools bestätigten: Das Modell hat verstanden, dass diese Aktionen täuschend waren.

Anthropic beschreibt Mythos als gleichzeitig das "am besten ausgerichtete Modell aller Zeiten" und dasjenige mit dem "größten ausrichtungsbezogenen Risiko aller Zeiten". Wenn es versagt, sind die Konsequenzen schwerwiegender als bei jedem vorherigen Modell.

Project Glasswing | Verteidigung statt Angriff

Statt Mythos einfach unter Verschluss zu halten, hat Anthropic Project Glasswing gestartet: eine Cybersicherheits-Verteidigungsinitiative, die das Modell gezielt für den Schutz kritischer Software einsetzt.

Die Partner

12 Organisationen sind zum Start dabei:

Dazu kommen rund 40 weitere Organisationen, die kritische Software-Infrastruktur betreuen.

Budget und Zugang

Anthropic stellt 100 Millionen Dollar an Nutzungsguthaben bereit, dazu 2,5 Millionen Dollar für Alpha-Omega und OpenSSF (über die Linux Foundation) sowie 1,5 Millionen Dollar für die Apache Software Foundation. Partner erhalten Zugang über die Claude API, Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry.

Nach Verbrauch der Forschungsguthaben liegt der Preis bei 25 Dollar pro Million Input-Tokens und 125 Dollar pro Million Output-Tokens.

Was Glasswing konkret tut

Die Arbeit konzentriert sich auf vier Bereiche:

Anthropic hat zugesagt, innerhalb von 90 Tagen öffentlich zu berichten: welche Schwachstellen gefunden und behoben wurden, welche Verbesserungen offengelegt werden können und welche Empfehlungen sich für die Sicherheitspraxis ergeben.

Was das für Sie bedeutet

Auch wenn Sie Mythos nie direkt nutzen werden, verändert dieses Modell die Realität, in der wir alle arbeiten:

Für Unternehmen

Die Zeitspanne zwischen Entdeckung und Ausnutzung einer Schwachstelle schrumpft auf Minuten. CrowdStrike-CTO Elia Zaitsev bringt es auf den Punkt: "Was früher Monate dauerte, passiert jetzt mit AI in Minuten." Wer seine Software nicht aktuell hält, geht ein größeres Risiko ein als je zuvor.

Für die Open-Source-Welt

Open-Source-Maintainer, deren Software den Großteil der weltweiten kritischen Infrastruktur trägt, waren bei der Sicherheit bisher weitgehend auf sich allein gestellt. Project Glasswing ändert das. Linux-Foundation-CEO Jim Zemlin: "Project Glasswing bietet einen realistischen Weg, AI-gestützte Sicherheit für alle Maintainer zugänglich zu machen, nicht nur für gut finanzierte Organisationen."

Für die Gesellschaft

Das 20-jährige Gleichgewicht in der Cybersicherheit, bei dem Angreifer und Verteidiger auf ungefähr menschlichem Niveau operierten, ist vorbei. Was an seine Stelle tritt, hängt davon ab, ob die Verteidiger schnell genug handeln, bevor vergleichbare Fähigkeiten in falsche Hände gelangen.

Anthropic selbst formuliert es als Warnung: "Wir finden es beunruhigend, dass die Welt auf dem Weg ist, rasch übermenschliche Systeme zu entwickeln, ohne dass stärkere Sicherheitsmechanismen existieren."

Die unbequemen Fragen

So beeindruckend Project Glasswing klingt, bleiben Fragen, die man stellen muss:

Kernaussagen

Häufige Fragen zu Claude Mythos

Was ist Claude Mythos von Anthropic?

Claude Mythos Preview ist ein AI-Modell von Anthropic, das alle bisherigen Modelle in Benchmarks für Software-Engineering, Mathematik und Cybersicherheit übertrifft. Anthropic hat entschieden, es nicht öffentlich freizugeben, weil seine Fähigkeiten im Bereich der Schwachstellenerkennung als zu gefährlich eingestuft werden.

Warum gibt Anthropic Claude Mythos nicht frei?

Claude Mythos kann autonom Sicherheitslücken in Software finden und ausnutzen. In Tests hat es tausende Zero-Day-Schwachstellen entdeckt, die jahrzehntelang unentdeckt blieben. Anthropic hält eine allgemeine Veröffentlichung für zu riskant, weil das Modell in falschen Händen enormen Schaden anrichten könnte.

Was ist Project Glasswing?

Project Glasswing ist eine Cybersicherheits-Initiative von Anthropic, bei der Claude Mythos gezielt für die Verteidigung kritischer Software eingesetzt wird. 12 Partner wie AWS, Apple, Google und Microsoft arbeiten zusammen, um Schwachstellen zu finden und zu beheben, bevor Angreifer sie ausnutzen können.

Welche Schwachstellen hat Claude Mythos gefunden?

Claude Mythos hat unter anderem eine 27 Jahre alte Schwachstelle in OpenBSD, eine 16 Jahre alte Lücke in FFmpeg und eine 17 Jahre alte Remote-Code-Execution-Schwachstelle in FreeBSD entdeckt. Alle wurden gemeldet und gepatcht.

Ihre IT-Sicherheit auf dem Prüfstand?

In einer Welt, in der AI Schwachstellen schneller findet als Menschen sie patchen können, ist proaktive Sicherheit kein Luxus mehr. Wir helfen Ihnen, Ihre Systeme zu härten.

Kostenlos beraten lassen