Deepfake-Betrüger klauen jetzt die Stimme deines Chefs
Ein Videocall vom CEO. Eine Sprachnachricht vom CFO kurz vor Börsenschluss. Alles fake — und Millionen weg.
Die Masche läuft längst
Generative KI macht Stimmen und Gesichter kopierbar wie Textdateien. Der Macron-Deepfake vom Dezember 2025 hat gezeigt: Selbst Staatschefs sind nicht sicher. Jetzt trifft es Unternehmen im Tagesgeschäft.
CEO-Fraud per Deepfake funktioniert so: Angreifer klonen Stimme oder Video eines Geschäftsführers. Dann rufen sie in der Buchhaltung an. Die Überweisung geht raus, bevor jemand Verdacht schöpft.
💡 Was das bedeutet
Die alten Sicherheitsmerkmale — Stimme, Gesicht, Videobild — sind wertlos geworden. Wer sich auf "Ich erkenne meinen Chef doch" verlässt, hat schon verloren. Firmen brauchen Prozesse, keine Bauchgefühle.
Technik allein reicht nicht
- Deepfake-Erkennung:** Existiert, hinkt aber immer hinterher
- Stimm-Kloning:** Braucht nur noch wenige Sekunden Audiomaterial
- Kosten für Angreifer:** Quasi null — Tools sind frei verfügbar
- Kosten für Opfer:** Einzelne Fälle gehen in die Millionen
Pro: Technische Abwehr
- Deepfake-Detektoren werden besser
- Wasserzeichen-Standards kommen langsam
- Multi-Faktor-Verifizierung hilft bei Überweisungen
Con: Die Realität
- Detektoren erkennen nur bekannte Methoden
- Angreifer passen sich schneller an als Verteidiger
- Mitarbeiter unter Zeitdruck prüfen nicht nach
Die echte Lösung ist unbequem
Kein Tool der Welt schützt, wenn Mitarbeiter Angst haben, den Chef-Anruf zu hinterfragen. Die Lösung heißt: psychologische Sicherheit. Wer ohne Konsequenzen sagen darf "Ich ruf zurück und verifiziere das", wird nicht zum Opfer.
Rückruf-Pflicht bei Überweisungen. Codewörter für kritische Anweisungen. Klingt altmodisch — funktioniert aber gegen Hightech-Betrug.