500 Banker testen KI — keiner würde sie rauslassen
GPT-5.4, Claude Opus 4.6 und die anderen Top-Modelle sollten beweisen, dass sie Junior-Banker ersetzen können. Das Ergebnis: Nicht ein einziger Output war abgabereif.
Was getestet wurde
Ein neuer Benchmark lässt aktuelle KI-Modelle typische Aufgaben von Junior-Investmentbankern erledigen. Pitchbooks, Analysen, Kundenmaterial. 500 echte Banker haben die Ergebnisse bewertet.
Die Zahlen
- 500** — Banker, die KI-Outputs bewertet haben
- 0** — Outputs, die als abgabereif durchgingen
- 100%** — Durchfallquote für den Kundenkontakt
Das Problem
Die KI-Ergebnisse waren zu ungenau oder schlicht fehlerhaft. Kein Modell — egal wie groß, egal wie teuer — hat die Qualitätsschwelle für echte Kundenarbeit erreicht. Die Banker waren sich einig: So geht das nicht raus.
✅ Pro
- Viele Banker würden KI-Output als Startpunkt nutzen
- Spart Zeit bei der ersten Rohfassung
- Strukturierung funktioniert brauchbar
❌ Con
- Kein Output war direkt verwendbar
- Faktenfehler in kritischen Dokumenten
- Für regulierte Branchen ein No-Go
💡 Was das bedeutet
Die KI kann dem Junior-Banker Arbeit abnehmen — aber nicht seinen Job. Wer glaubt, GPT-5.4 ersetzt demnächst die Analyst-Klasse bei Goldman Sachs, hat diesen Benchmark nicht gelesen. Die Modelle sind bessere Entwurfsmaschinen, keine fertigen Mitarbeiter.