Anthropic gewinnt erste Runde gegen das Pentagon
Ein Bundesrichter in Kalifornien hat dem Pentagon eine schallende Ohrfeige verpasst. Anthropic darf vorerst nicht mehr auf der schwarzen Liste des Verteidigungsministeriums stehen — mehrere große Medien berichten übereinstimmend.
Was passiert ist
Richterin Rita F. Lin hat Anthropic eine einstweilige Verfügung gewährt. Das Pentagon hatte die KI-Firma als "Lieferkettenrisiko" eingestuft — und damit faktisch aus dem gesamten US-Regierungsgeschäft ausgesperrt. Solange das Gerichtsverfahren läuft, muss diese Sperre jetzt pausieren.
Der eigentliche Grund für den Streit
Anthropic weigert sich, sein Flaggschiff-Modell Claude für autonome Waffensysteme freizugeben. Das Pentagon fand das offenbar nicht lustig. Statt das einfach zu akzeptieren, kam die Keule: Blacklisting.
The Department of War's records show that it designated Anthropic as a supply chain risk because of its 'hostile manner through the press.'— Richterin Rita F. Lin, US District Court Northern California
Klartext: Das Pentagon hat Anthropic nicht wegen echter Sicherheitsrisiken auf die Liste gesetzt. Sondern weil die Firma öffentlich Nein gesagt hat.
💡 Was das bedeutet
Das Urteil ist ein Signal an die gesamte Tech-Branche. Wer dem Militär widerspricht, kann offenbar bestraft werden — aber die Justiz schaut hin. Für Anthropic ist es erst die erste Runde, das eigentliche Verfahren kommt noch.
📅 Timeline
- Frühjahr 2026:** Anthropic verweigert Claude-Einsatz in autonomen Waffen
- März 2026:** Pentagon stuft Anthropic als Lieferkettenrisiko ein
- 26. März 2026:** Richterin Lin stoppt die Sperre per einstweiliger Verfügung
✅ Pro
- Anthropic steht zu seinen KI-Sicherheitsprinzipien
- Gericht prüft Regierungshandeln — Rechtsstaat funktioniert
❌ Con
- Nur vorläufige Entscheidung, Hauptverfahren offen
- Anthropic verliert trotzdem Regierungsaufträge in der Zwischenzeit