Anthropic traut eigenem Modell nicht
Anthropic hat ein neues KI-Modell entwickelt — und weigert sich, es zu veröffentlichen. Begründung: zu gefährlich. Ben Thompson von Stratechery zerlegt die Behauptung und kommt zu einem unbequemen Schluss.
Die Ansage
Anthropic erklärt, das neue Modell überschreite Sicherheitsgrenzen, die einen Release ausschließen. Kein Name, keine Demo, keine Benchmarks. Nur die Warnung: Dieses Ding ist zu mächtig für die Öffentlichkeit.
Zwei Szenarien, beide schlecht
Szenario A: Es stimmt nicht
Anthropic nutzt die "zu gefährlich"-Karte als Marketing. Ein Modell, das man nicht zeigen kann, ist erst mal nur ein Modell, das man nicht zeigen will. Hype durch Geheimhaltung — das kennt die Branche.
Szenario B: Es stimmt
Dann hat ein einzelnes Unternehmen eine Technologie gebaut, die es selbst für unkontrollierbar hält. Und die einzige Sicherheitsmaßnahme ist: Wir releasen halt nicht. Bis jemand anderes etwas Ähnliches baut. Oder bis sich die Firmenleitung umentscheidet.
Anthropic says its new model is too dangerous to release.— Ben Thompson, Stratechery
Was das bedeutet
Das Alignment-Problem ist kein akademisches Gedankenspiel mehr. Wenn Frontier-Labs ihre eigenen Modelle als Risiko einstufen, braucht es externe Prüfinstanzen — nicht nur interne Safety-Teams, die gleichzeitig dem Umsatzdruck unterliegen. Die Frage ist nicht, ob Anthropic recht hat. Die Frage ist: Wer außer Anthropic darf das überprüfen?
✅ Pro
- Anthropic nimmt eigene ASL-Richtlinien ernst
- Transparenz über Risiko-Einschätzung
- Setzt Signal an die Branche
❌ Con
- Kein externer Audit, keine Verifizierung
- "Zu gefährlich" ist auch perfektes Marketing
- Kein Modell, keine Gegenprüfung möglich