DeepSeek schließt zu GPT-5 und Claude auf
Chinas KI-Labor Nummer eins legt nach. DeepSeek zeigt zwei neue Modelle, die laut eigenen Angaben die Lücke zu den besten westlichen Modellen fast geschlossen haben.
Was wir wissen
Beide neuen Modelle sind Nachfolger von DeepSeek V3.2. Sie sollen durch Architektur-Verbesserungen sowohl effizienter als auch leistungsstärker sein. Auf Reasoning-Benchmarks liegen sie laut DeepSeek fast gleichauf mit den aktuellen Frontier-Modellen — egal ob Open oder Closed Source.
💡 Was das bedeutet
DeepSeek hatte mit V3 bereits den Markt geschockt: Ein chinesisches Lab, das mit weniger Geld und weniger Chips Ergebnisse auf westlichem Top-Niveau liefert. Wenn die neuen Modelle halten, was die Previews versprechen, wird der Vorsprung von OpenAI, Google und Anthropic nochmal dünner. Für Entwickler heißt das: Mehr Auswahl, mehr Druck auf die Preise.
✅ Pro
- Effizienter als V3.2 — mehr Leistung pro Dollar
- Reasoning auf Frontier-Niveau
- Open-Weight-Tradition von DeepSeek könnte Zugang demokratisieren
❌ Con
- Bisher nur Preview — keine öffentlichen Benchmarks von Dritten
- "Fast geschlossen" heißt eben nicht "geschlossen"
- Geopolitische Risiken bleiben für westliche Unternehmen ein Faktor
Der Kontext
- Januar 2025:** DeepSeek V3 erscheint und schockt die Branche
- 2025:** R1 zeigt, dass Reasoning auch ohne Milliarden-Budget geht
- April 2026:** Neue Modelle sollen die letzte Lücke schließen
DeepSeek baut seinen Ruf als effizientestes KI-Lab der Welt weiter aus. Während OpenAI und Google Milliarden in Rechenzentren pumpen, liefert das Team aus Hangzhou vergleichbare Ergebnisse — mit einem Bruchteil der Ressourcen.