Am 26. März hat Anthropic aus Versehen sein mächtigstes KI-Modell enthüllt. Nicht durch eine Pressemitteilung. Durch einen Konfigurationsfehler auf der eigenen Website.
Ein CMS-Fehler machte rund 3.000 unveröffentlichte interne Dokumente öffentlich zugänglich — darunter den Entwurf eines Blogposts über „Claude Mythos", ein neues Modell in einem neuen Tier namens „Capybara", das über Opus steht. Das Modell, so der Entwurf, sei „bei weitem das mächtigste KI-Modell, das wir jemals entwickelt haben."
Die Folge? Cybersicherheits-Aktien stürzten ab. CrowdStrike verlor 7 %, Palo Alto Networks 6 %, Zscaler 4,5 %.
Hier ist alles, was wir wissen — getrennt vom Hype.
Was ist Claude Mythos?
Zwei Namen, ein Modell:
- Mythos = der Name des Modells
- Capybara = der Name des neuen Tiers (über Opus)
Bisher hat Anthropic drei Tiers: Haiku (schnell und günstig), Sonnet (ausgeglichen), Opus (am leistungsfähigsten). Capybara wäre ein viertes Tier — größer, leistungsfähiger und deutlich teurer.
| Tier | API-Kosten (pro 1 Mio. Tokens) | Abo |
|---|---|---|
| Haiku 4.5 | 1 $ / 5 $ | Gratis |
| Sonnet 4.6 | 3 $ / 15 $ | Pro (18,50 €/Monat) |
| Opus 4.6 | 5 $ / 25 $ | Max (93–185 €/Monat) |
| Capybara (Mythos) | Unbekannt | Unbekannt |
Anthropic hat das Modell als „step change" bestätigt — „das leistungsfähigste, das wir je gebaut haben." Die Gerüchte sprechen von 10 Billionen Parametern und 10 Milliarden Dollar Trainingskosten. Bestätigt ist das nicht.
Was kann Mythos?
Laut den geleakten Dokumenten erzielt Mythos „dramatisch höhere Ergebnisse" als Claude Opus 4.6 in:
- Software-Programmierung — Code schreiben, debuggen und verstehen
- Akademisches Reasoning — wissenschaftliche und mathematische Problemlösung
- Cybersicherheit — Schwachstellen finden und ausnutzen
Der letzte Punkt ist der brisante. Das Dokument beschreibt Mythos als „derzeit jedem anderen KI-Modell in Cyber-Fähigkeiten weit voraus" und warnt, dass es „Schwachstellen in einer Weise ausnutzen kann, die die Bemühungen der Verteidiger weit übertrifft."
Das ist keine Einschätzung eines Kritikers. Das ist Anthropics eigene Bewertung ihres eigenen Modells.
Warum Cybersicherheits-Aktien abgestürzt sind
Am 27. März — einen Tag nach dem Fortune-Bericht — fielen die Aktien der großen Cybersicherheits-Unternehmen deutlich:
| Unternehmen | Kursverlust |
|---|---|
| CrowdStrike | -7 % |
| Palo Alto Networks | -6 % |
| Zscaler | -4,5 % |
| iShares Cybersecurity ETF | -4,5 % |
| Okta, SentinelOne, Fortinet | je ~3 % |
Die Logik ist nachvollziehbar: Wenn ein KI-Modell Sicherheitslücken schneller finden und ausnutzen kann, als menschliche Verteidiger sie schließen können, dann steht die gesamte Cybersicherheitsbranche vor einer fundamentalen Herausforderung.
Für deutsche IT-Sicherheitsverantwortliche ist das keine abstrakte Frage. BSI-Richtlinien, KRITIS-Betreiber, NIS2-Compliance — all das basiert auf der Annahme, dass Verteidiger schneller sind als Angreifer. Wenn ein KI-Modell dieses Gleichgewicht verschiebt, ändert sich die Risikoberechnung.
Wer bekommt zuerst Zugang?
Anthropic rollt Mythos nicht an die Öffentlichkeit aus. Zuerst bekommen Cybersicherheits-Verteidigungsorganisationen Zugang. Nicht Entwickler, nicht Unternehmen, nicht Pro-Abonnenten.
Die Strategie: Den Verteidigern einen Vorsprung geben, bevor Angreifer ähnliche Fähigkeiten von anderen Modellen erhalten.
Ob dieses Zeitfenster groß genug ist, ist eine offene Frage.
Die Ironie
Das Unternehmen, das sich als das sicherheitsbewussteste in der KI-Branche positioniert, hat sein gefährlichstes Modell durch einen simplen Website-Fehler geleakt.
Fünf Tage später, am 31. März, passierte es erneut: Anthropic veröffentlichte versehentlich den gesamten Quellcode von Claude Code — 512.000 Zeilen, inklusive unveröffentlichter Features. Zwei Leaks in einer Woche.
Ein Sicherheitsforscher brachte es auf den Punkt: „Das ist peinliches Engineering, kein Sicherheitsbruch." Stimmt. Aber die Wiederholung macht es nicht besser.
Was das für dich bedeutet
Als Claude-Nutzer: Momentan ändert sich nichts. Opus 4.6 und Sonnet 4.6 bleiben die besten verfügbaren Modelle. Mythos ist nicht öffentlich zugänglich.
Als IT-Sicherheitsverantwortlicher: Beobachte die Entwicklung. Wenn Capybara-Modelle über die API verfügbar werden, könnten sie die Verteidigungsseite stärken — aber nur, wenn du sie schneller einsetzt als potenzielle Angreifer.
Als Entwickler: Plane deine Architektur so, dass du Model-Tiers wechseln kannst. Der Leistungsunterschied zwischen Sonnet und Capybara wird voraussichtlich deutlich größer sein als der aktuelle Sprung von Sonnet zu Opus.
Für alle: KI-Fähigkeiten beschleunigen sich. Der Abstand zwischen dem, was vor sechs Monaten möglich war, und dem, was in den nächsten sechs Monaten kommt, wird größer, nicht kleiner. Sich mit KI-Tools vertraut zu machen — auch auf dem Sonnet-Level — wird zunehmend wertvoll.
Quellen:
- Angst vor der Super-KI: Anthropic-Leak zu „Claude Mythos" lässt Kurse einbrechen — IT-Times
- Neues KI-Modell von Anthropic setzt Cybersecurity-Aktien unter Druck — Investing.com DE
- Anthropics Mythos: durchgesickertes KI-Modell — Euronews
- Neue Entwicklungen bei Anthropic: Claude Mythos — mind-verse.de
- Anthropic enthüllt KI-Modell „Mythos" und gewinnt Schlüsselprozess — ad-hoc-news.de
- Anthropic-Leak: KI-Entwicklung sorgt für Unsicherheit — it-boltwise.de
- Anthropic Mythos leak — Fortune (EN)
- Anthropic leaked Mythos cybersecurity risks — Fortune (EN)