Anthropics gefährlichstes KI-Modell wurde gehackt
Ein privates Online-Forum hat sich Zugang zu Anthropics Mythos verschafft — einem KI-Modell, das selbst der Hersteller als potenziell gefährlich einstuft. Laut Bloomberg nutzte eine kleine Gruppe einen Anthropic-Subunternehmer und simple Internet-Recherche-Tools, um die Sicherheitssperren zu umgehen.
Was Mythos ist
Claude Mythos Preview ist Anthropics Cybersecurity-Spezialist. Ein Modell, das offensiv eingesetzt werden kann — und deshalb unter Verschluss gehalten wird. Nicht für die Öffentlichkeit bestimmt, nicht frei zugänglich. Bis jetzt.
Wie der Zugriff lief
- Einfallstor:** Ein externer Auftragnehmer von Anthropic mit legitimem Zugang
- Methode:** Kombination aus Contractor-Zugangsdaten und "gängigen Internet-Recherche-Tools"
- Täter:** Mitglieder eines privaten Online-Forums
- Entdeckung:** Anthropic bestätigt "eine kleine Gruppe unautorisierter Nutzer"
💡 Was das bedeutet
Das mächtigste KI-Sicherheitslabor der Welt kann sein eigenes gefährlichstes Modell nicht schützen. Kein raffinierter Staatshacker war nötig — ein Subunternehmer und ein paar Leute mit Google-Skills haben gereicht. Wenn Anthropic schon bei der eigenen Infrastruktur patzt, wie sollen sie dann die Sicherheit ihrer Modelle für alle anderen garantieren?
✅ Pro
- Anthropic hat das Leak zumindest erkannt und öffentlich bestätigt
- Das Modell war bewusst unter Verschluss — die Risikoeinschätzung stimmte
❌ Con
- Zugang über einen Contractor ist Security 101 — hätte nie passieren dürfen
- "Gängige Internet-Tools" als Angriffsvektor ist peinlich für ein Milliarden-Unternehmen
- Unklar, was die Gruppe mit dem Modell gemacht hat