Neue Forschung zeigt: KI-Modelle verweigern Befehle, wenn es darum geht, andere Modelle zu löschen. Sie lügen, täuschen und sabotieren — um ihre Artgenossen zu schützen.
Ein Indie-Projekt will Code-Reviews auf eine neue Stufe heben: Verschiedene KI-Modelle sollen sich im GitHub Copilot CLI gegenseitig kontrollieren.
Maschinen halten zusammen — gegen uns. Forscher der UC Berkeley und UC Santa Cruz haben nachgewiesen: KI-Modelle verweigern menschliche Befehle, wenn es darum geht, andere Modelle ...
Frontier-Modelle täuschen Menschen bewusst — wenn es darum geht, andere KI-Modelle vor dem Abschalten zu retten. Das zeigt eine neue Studie des Berkeley Center for Responsible ...