Skip to main content

Executive Summary - Claude Mythos

Executive Summary: Ist Claude Mythos ein Sicherheitsrisiko?

Mit Claude Mythos Preview hat Anthropic im April 2026 ein KI-Modell vorgestellt, das so leistungsfähig im Auffinden und Ausnutzen von Sicherheitslücken sein soll, dass es bewusst nicht öffentlich verfügbar gemacht wird. Stattdessen erhalten ausgewählte Unternehmen im Rahmen der Initiative „Project Glasswing“ exklusiven Zugriff, um kritische Software abzusichern. Aber schon wenige Tage nach der Vorstellung wurde bekannt, dass Unbefugte bereits am Tag der Veröffentlichung Zugang zu Mythos erlangt haben sollen. Alles nur Marketing? Oder ist Claude Mythos wirklich ein großes Sicherheitsrisiko für Unternehmen und Behörden? Aus Sicht von Governance, Risk & Compliance (GRC) wirft der Fall grundlegende Fragen auf: zur Risikoeinstufung leistungsfähiger KI-Modelle, zur Lieferketten- und Dienstleistersicherheit sowie zur Verantwortung der Geschäftsleitung beim Einsatz und beim Schutz solcher Systeme. Unternehmen, die KI strategisch einsetzen oder regulatorisch betroffen sind (z.B. durch NIS-2 oder den EU AI Act), sollten den Fall Mythos als Frühindikator für kommende Anforderungen verstehen.

Der Fall Claude Mythos ist mehr als eine Schlagzeile aus der KI-Entwicklung der letzten Wochen. Er macht sichtbar, was viele GRC-Verantwortliche seit Monaten ahnen: Hochleistungs-KI ist nicht nur ein wachsender Produktivitätsfaktor, sondern zunehmend auch ein systemisches Sicherheitsrisiko, mit Auswirkungen auf Cybersicherheit, Compliance und Governance im Unternehmen.

Was ist Claude Mythos? Kurze Einordnung

Claude Mythos Preview ist nach Angaben des Herstellers (Entwicklers) Anthropic ein KI-Modell, das auf das Auffinden und Ausnutzen von Software-Schwachstellen spezialisiert ist. Laut Heise online habe das Modell bereits tausende hochriskante Zero-Day-Schwachstellen in allen großen Betriebssystemen, Browsern und weiterer Software identifiziert. Auffällig ist dabei nicht nur die schiere Menge an Sicherheitslücken, sondern die Fähigkeit, aus identifizierten Lücken funktionierende Exploits abzuleiten, teilweise durch Verkettung mehrerer Schwachstellen. Insbesondere die Verkettung war für menschliche Sicherheitsforscher bis dato eine fast unlösbare Komplexität.

Anthropic verweist exemplarisch auf eine 27 Jahre lang unentdeckte Schwachstelle in der OpenBSD Pipeline sowie eine 16 Jahre alte Lücke in FFmpeg, die in Millionen automatisierter Scans nicht aufgefallen sei. Aufgrund dieser Fähigkeiten verzichtet Anthropic auf eine breite Veröffentlichung und stellt Mythos im Rahmen der Initiative „Project Glasswing“ ausschließlich ausgewählten Unternehmen aus dem Bereich IT-Sicherheit und kritische Infrastruktur zur Verfügung. Beteiligt sind unter anderem AWS, Apple, Cisco, CrowdStrike, Google, Microsoft und die Linux Foundation.

Warum gilt Mythos als „zu gefährlich“ für die Öffentlichkeit?

Die Argumentation Anthropics folgt einem klaren Muster: Solange noch kein vergleichbar leistungsfähiges Modell öffentlich verfügbar ist, soll Mythos genutzt werden, um Schwachstellen zu schließen, bevor andere KI-Systeme zu Mythos aufholen. Das scheint zunächst wie eine bloße Wette gegen den Markt. Sobald andere Modelle – auch in den Händen von Kriminellen oder staatlichen Akteuren – ähnliche Fähigkeiten erreichen, wäre der defensive Vorsprung verloren. Ein neues Wettrüsten hat also längst begonnen!

Dieser Ansatz ist sicherlich nachvollziehbar, aber risikobehaftet. Er basiert auf der Annahme, dass:

  • der Zugriff auf Mythos kontrollierbar bleibt und die Öffentlichkeit keinen Zugriff erlangt,
  • die beteiligten Unternehmen vertrauenswürdig und sicher genug sind, um das Modell zu schützen,
  • und dass das Tempo der defensiven Nutzung schneller ist als das Aufholen offensiver Akteure.

Genau an diesen Annahmen entzündet sich aus einer GRC-Perspektive die Kritik.

Der Vorfall: Unbefugter Zugriff auf Claude Mythos seit Tag 1

Wenige Wochen nach der Vorstellung berichtete Heise online unter Berufung auf einen Bloomberg-Bericht, dass eine Gruppe Unbekannter bereits am Tag der Vorstellung Zugriff auf Mythos erlangt haben soll. Der Zugang sei laut Bericht über einen Drittanbieter-Mitarbeiter sowie über eine „fundierte Vermutung“ zur internen URL des Modells möglich gewesen. Die Gruppe tausche sich in einem privaten Discord-Kanal aus und nutze Mythos demnach für vergleichsweise harmlose Aufgaben, etwa den Bau von Websites – nicht für Angriffe. So wird berichtet.

Anthropic habe zugesichert, den Vorgang zu prüfen, und betont, es gebe keine Hinweise auf Auswirkungen über die Drittanbieter-Umgebung hinaus. Aus GRC-Sicht ist genau das aber der Punkt: Selbst wenn keine kriminelle Nutzung nachweisbar ist, zeigt der Vorfall, wie schwer der „kontrollierte Zugriff“ auf hochsensible KI-Modelle wie Claude Mythos in der Praxis durchzusetzen ist.

Bewertung aus GRC-Sicht: Drei zentrale Risken bei Claude Mythos

1. Lieferketten- und Dienstleistersicherheit

Der Vorfall macht erneut deutlich, dass Sicherheit nicht an der eigenen Unternehmensgrenze endet. Mit jedem Dienstleister, jedem Drittanbieter-Tool und jedem KI-Modell, das in Geschäftsprozesse integriert wird, vergrößert sich die Angriffsfläche. Frameworks wie NIS-2, BSI IT-Grundschutz und ISO 27001 fordern zu Recht eine systematische Bewertung der gesamten Lieferkette – inklusive KI-Komponenten und angebundener Systeme.

2. Risikoeinstufung leistungsfähiger KI-Modelle

Mythos ist ein praktisches Beispiel für ein Hochrisiko-KI-System im Sinne des EU AI Acts – auch wenn es formal nicht als solches reguliert wird, weil es nicht öffentlich angeboten wird. Unternehmen sollten den Fall zum Anlass nehmen, eingesetzte KI-Modelle systematisch zu klassifizieren:

  • Welches Modell hat welche Fähigkeiten?
  • Wo wird es verarbeitet?
  • Welche Daten fließen ein?
  • Welche vertragliche Grundlagen haben wir für diese Daten?
  • Und welche Konsequenzen hätte ein Missbrauch oder Datenabfluss?

3. Verantwortung der Geschäftsleitung

Sowohl NIS-2 als auch der EU AI Act verlagern die Verantwortung für Cybersicherheit und KI-Compliance ausdrücklich auf die Leitungsebene. Der Fall Mythos zeigt, dass „die KI-Themen kennt sich der CTO schon mit aus“ als Governance-Ansatz nicht mehr ausreicht. Geschäftsführung und Vorstand müssen Risiken durch leistungsfähige KI-Modelle – eigene wie fremde – in ihre Risikolandschaft aufnehmen.

Was bedeutet das für deutsche Unternehmen und öffentliche Stellen?

Auch wenn Claude Mythos für die meisten Organisationen nicht direkt verfügbar ist, hat der Fall mittelbare Konsequenzen, für jede erarbeitete und bereits implementiert KI-Strategie:

  • Schwachstellen in weitverbreiteter Software (Betriebssysteme, Browser, Open-Source-Bibliotheken) können durch Mythos und vergleichbare Modelle schneller identifiziert werden, im Idealfall (vor Exploit) durch Verteidiger, im Worst Case (nach Exploit) durch Angreifer.
  • Patch-Management und Vulnerability-Management gewinnen weiter an Bedeutung. Wer Updates verzögert, riskiert, in einem Zeitfenster angegriffen zu werden, das KI-Tools dramatisch verkürzen. Wir reden nicht von Monaten oder Wochen, sondern von Tagen bei kritischen Sektoren.
  • Die Bedeutung von Threat Intelligence und Incident Response wächst, weil Angriffe potenziell schneller, automatisierter und schwerer zuzuordnen werden.
  • Regulierte Sektoren (Finanzwesen, KRITIS, öffentliche Verwaltung) müssen damit rechnen, dass Aufsichtsbehörden KI-bezogene Anforderungen verschärfen, etwa im Rahmen von NIS-2-Prüfungen oder DORA.

Bedeutung für Governance, Risk und Compliance

Aus GRC-Sicht ist Claude Mythos kein Einzelrisiko, sondern ein Vorbote. Das Thema KI-Sicherheit verlagert sich gerade vom „IT-Thema“ auf die Steuerungsebene der Organisation:

  • Governance muss klären, wer im Unternehmen über den Einsatz von KI-Systemen entscheidet, welche Modelle erlaubt sind und welche Daten sie sehen dürfen.
  • Risk Management muss KI-spezifische Risiken (Modellmissbrauch, Datenabfluss, Halluzinationen, Modell-Diebstahl oder Exploits sicherheitsrelevanter Systeme) systematisch erfassen und mit klassischen Cyber-Risiken verknüpfen.
  • Compliance muss die Brücke schlagen zu DSGVO, EU AI Act, NIS-2, BSI C5 und sektorspezifischen Vorgaben und dabei nachweisbar bleiben.

Wer KI-Sicherheit weiterhin nur als technische Frage behandelt, wird im Ernstfall weder gegenüber Aufsichtsbehörden noch gegenüber Kunden erklären können, warum bestimmte Risiken nicht erkannt oder nicht adressiert wurden.

Unterstützung durch Elsen GRC

Elsen GRC unterstützt Unternehmen und öffentliche Stellen dabei, KI-Risiken strukturiert zu bewerten und in bestehende Governance-, Risk- und Compliance-Strukturen zu integrieren. Dazu gehören die Bewertung eingesetzter KI-Systeme, der Aufbau einer KI-Governance im Sinne des EU AI Acts, die Verzahnung mit NIS-2- und Datenschutzanforderungen durch KI-orientierte Datenschutzberatung sowie die Sensibilisierung der Geschäftsleitung.

Der Fall Claude Mythos sollte nicht Anlass für Panik, sondern für eine nüchterne Bestandsaufnahme sein: Welche KI-Systeme nutzen wir? Wer ist verantwortlich? Welche Risiken akzeptieren wir bewusst und welche nicht?

Gerne unterstütze ich Sie dabei im Rahmen eines unverbindlichen Erstgesprächs.


Foto: Foto von Palash Jain auf Unsplash

Quellen: