27B-Modell schlägt 397B-Riesen beim Coden
Alibaba hat mit Qwen3.6-27B ein Open-Weight-Modell veröffentlicht, das bei Agentic-Coding-Benchmarks Modelle mit 397 Milliarden Parametern hinter sich lässt. Dichtes Modell, Apache 2.0, sofort einsatzbereit.
Was drin steckt
Qwen3.6-27B ist kein weiteres MoE-Modell, bei dem 90% der Parameter Deko sind. Es ist ein dichtes Modell — alle 27 Milliarden Parameter arbeiten bei jedem Token. Trotzdem schlägt es das hauseigene Qwen3.6-35B-A3B, ein Sparse-MoE mit deutlich mehr Gesamtparametern.
Zahlenbox
- 27 Mrd.** — Parameter, alle aktiv (dense)
- 397B** — Größe des MoE-Modells, das es bei Agentic Coding schlägt
- Apache 2.0** — Lizenz, vollständig offen und kommerziell nutzbar
Die Architektur-Tricks
Das Modell bringt zwei echte Neuerungen mit:
- Hybrid-Attention:** Mischung aus Gated DeltaNet (lineare Attention) und klassischer Self-Attention. Heißt: Schneller bei langen Kontexten, trotzdem präzise bei komplexen Abhängigkeiten.
- Thinking Preservation:** Ein neuer Mechanismus, der die Reasoning-Kette des Modells während Agentic Tasks stabilisiert. Das Modell verliert den Faden nicht mitten im Multi-Step-Coding.
💡 Was das bedeutet
Für alle, die lokale Coding-Agents bauen wollen, ist das ein Durchbruch in der Gewichtsklasse. Ein 27B-Modell läuft auf einer einzelnen Consumer-GPU. Wenn es tatsächlich mit 397B-MoE-Modellen mithält, verschiebt das die Grenze dessen, was ohne Cloud-Anbindung möglich ist.
📅 Timeline
- Qwen3.6-35B-A3B:** Sparse MoE, vor wenigen Wochen veröffentlicht
- Qwen3.6-27B:** Jetzt — dichtes Modell, übertrifft den eigenen MoE-Vorgänger
- Nächster Schritt:** Weitere Modelle der Qwen3.6-Familie werden erwartet
Einordnung
Alibaba liefert schneller als die meisten westlichen Labs. Während OpenAI und Google ihre besten Modelle hinter APIs verstecken, stellt Qwen Gewichte unter Apache 2.0 raus. Das zwingt die Konkurrenz, nachzuziehen — oder irrelevant zu werden.