Anthropics "gefährliche" KI war nie wirklich geschützt
Anthropic nennt sein stärkstes Modell so riskant, dass nur handverlesene Firmen es nutzen dürfen. Dumm nur: Unbefugte hatten offenbar von Anfang an Zugriff.
Was passiert ist
Anthropics leistungsfähigste KI — intern als zu gefährlich für die Öffentlichkeit eingestuft — war laut einem Bericht nicht so abgeschottet wie behauptet. Unbekannte sollen die Zugangsbeschränkungen umgangen haben. Und zwar nicht erst seit gestern, sondern wohl seit Tag eins.
Das Sicherheitstheater
- Offiziell:** Nur ausgewählte Partnerfirmen bekommen Zugang
- Realität:** Unbefugte sollen die Sperren umgangen haben
- Zeitraum:** Potenziell seit dem ersten Tag der Verfügbarkeit
- Bestätigt:** Bisher nur ein Bericht, keine offizielle Stellungnahme
Was das bedeutet
Anthropic verkauft sich als die verantwortungsvollste KI-Firma der Branche. Safety ist deren Markenzeichen — deshalb investieren Milliarden-Geldgeber. Wenn ausgerechnet ihr "zu gefährliches" Modell frei zugänglich war, ist das nicht nur ein Sicherheitsloch. Es ist ein Glaubwürdigkeitsproblem.
✅ Pro
- Anthropic stuft Modelle überhaupt als riskant ein — mehr als andere tun
- Zugangsbeschränkungen existieren zumindest auf dem Papier
❌ Con
- Schutzmechanismen offenbar wirkungslos
- Kein bekannter Zeitpunkt der Entdeckung
- Keine öffentliche Reaktion von Anthropic
Einordnung
Jede KI-Firma predigt Safety. Anthropic hat daraus ein ganzes Geschäftsmodell gebaut. Aber ein Tresor, dessen Tür nie richtig schloss, ist kein Tresor — sondern eine Requisite. Details zum konkreten Schaden fehlen bisher. Der Imageschaden steht aber jetzt schon fest.