Hacker knacken Anthropics gefährlichstes KI-Modell
Eine Handvoll Unbekannter hat sich Zugang zu Mythos verschafft — einem Anthropic-Modell, das nie öffentlich werden sollte. Weil es zu gut darin ist, Sicherheitslücken zu finden.
Was passiert ist
Anthropic bestätigt: Man untersuche einen Bericht von Bloomberg, wonach eine kleine Gruppe unbefugt auf das Modell Mythos zugegriffen hat. Das Modell wurde bewusst unter Verschluss gehalten — wegen seiner Fähigkeit, Cybersecurity-Schwachstellen aufzuspüren.
Zahlenbox
- Zugriff:** Nur eine „Handvoll" Personen betroffen
- Status:** Modell war nie öffentlich verfügbar
- Risiko:** Erkennung von Cybersecurity-Vulnerabilities
- Reaktion:** Anthropic hat aktive Untersuchung eingeleitet
Warum Mythos unter Verschluss war
Anthropic hatte Mythos absichtlich nicht veröffentlicht. Der Grund: Das Modell ist zu kompetent im Aufspüren von Sicherheitslücken. In den falschen Händen wird ein Verteidigungstool zur Angriffswaffe. Genau das ist jetzt passiert.
💡 Was das bedeutet
Die KI-Branche predigt seit Monaten „Responsible Disclosure" und gestufte Veröffentlichungen. Wenn ein Unternehmen wie Anthropic — das sich als Sicherheits-Vorreiter positioniert — sein eigenes Hochrisiko-Modell nicht sichern kann, hat die gesamte Branche ein Glaubwürdigkeitsproblem. Jedes Labor mit gefährlichen Modellen muss sich jetzt fragen: Wie sicher sind unsere internen Systeme wirklich?
✅ Pro
- Anthropic reagiert transparent und untersucht den Vorfall
- Modell war bewusst nicht öffentlich — das Risikobewusstsein war da
❌ Con
- Trotz Risikobewusstsein: Zugang wurde nicht verhindert
- Unklar, was die Angreifer mit dem Modell gemacht haben
- Schadenausmaß bisher nicht beziffert