KI-Betrüger fangen Entwickler mit Deepfake-Vorstellungsgespräch
Ein Software-Entwickler wurde Opfer eines hochkomplexen Job-Betrugs. Die Täter lockten ihn mit einem gefälschten LinkedIn-Profil und führten ein Vorstellungsgespräch per Video-Call – mit einem Deepfake-Interviewer.
Was konkret passiert ist
Alles begann mit einer LinkedIn-Nachricht von einem angeblichen Recruiter. Das Profil wirkte absolut seriös. Es folgten mehrere Interview-Runden, inklusive eines technischen Screenings. Der angebliche Interviewer war via Kamera zu sehen, machte sogar Witze über Backdoors in Code. Das brach das Misstrauen.
"Ich habe meine Wachsamkeit sinken lassen und den verdammten Code ausgeführt."— Das Opfer, ein Software-Entwickler
So lief der Betrug ab
- Lockvogel:** Gefälschtes, aber überzeugendes LinkedIn-Profil eines Recruiters.
- Vertrauensaufbau:** Mehrstufiger Bewerbungsprozess mit angeblich echten Mitarbeitern.
- Deepfake-Interview:** Video-Call mit einem "Live"-Interviewer, der wahrscheinlich ein KI-generiertes Gesicht war.
- Finaler Schlag:** Die Aufgabe, einen angeblich harmlosen Code-Ausschnitt in der eigenen Entwicklungsumgebung auszuführen. Dieser Code enthielt Malware.
💡 Was das bedeutet
Diese Angriffe werden nicht zufälliger, sondern gezielter. Sie richten sich an Fachkräfte mit Zugang zu wertvoller Infrastruktur. Der Aufwand für die Täter lohnt sich, wenn sie damit Zugriff auf Firmennetzwerke oder sensible Daten bekommen. Jeder, der remote interviewed wird, ist potenziell gefährdet.