Anthropic-KI hackt sich durch echten Code
Claude hat eine Zero-Day-Lücke gefunden. Nicht in einem Benchmark, nicht in einem Sandkasten — in echtem, produktivem Code. Anthropic lässt sein neues Modell auf reale Software los, und das Ding liefert.
Was passiert ist
Anthropics neuestes Modell hat eine bisher unbekannte Sicherheitslücke in einem weit verbreiteten Betriebssystem aufgespürt. Keine triviale Schwachstelle, sondern ein tief vergrabener Bug, den menschliche Auditoren übersehen hatten. Das Modell scannt Code nicht nur oberflächlich — es versteht Logik, Kontexte und Abhängigkeiten.
Zahlenbox
- 0-Day** — echte, unbekannte Schwachstelle gefunden
- Millionen** — potenziell betroffene Systeme
- Jahre** — so lange schlummerte der Bug unentdeckt
Das Dual-Use-Problem
Dieselbe Fähigkeit, die Sicherheitslücken findet, kann sie auch ausnutzen. Anthropic weiß das. Jedes Unternehmen, das ein Modell zum Code-Auditor macht, baut gleichzeitig einen potenziellen Angriffsvektor. Die Frage ist nicht ob, sondern wann jemand diese Fähigkeit missbraucht.
✅ Pro
- Automatisiertes Security-Auditing in Sekunden statt Wochen
- Findet Bugs, die Menschen systematisch übersehen
- Könnte Open-Source-Projekte absichern, die kein Budget für Audits haben
❌ Con
- Offensiver Einsatz nur eine Prompt-Änderung entfernt
- Senkt die Einstiegshürde für Angriffe massiv
- Kein Modell unterscheidet zuverlässig zwischen "finden" und "ausnutzen"
💡 Was das bedeutet
Security-Firmen sollten nervös werden. Wenn ein Foundation Model echte Zero-Days findet, wird Bug-Bounty-Hunting zur Commodity. Gleichzeitig beginnt ein Wettrüsten: KI findet Lücken schneller als Menschen sie patchen können.