Google schmeißt 4 neue Open-Modelle raus
Google DeepMind ballert vier neue Gemma-4-Modelle auf den Markt — alle mit Apache-2.0-Lizenz, alle mit Vision-Fähigkeiten, alle mit Reasoning. Das ist kein kleines Update, das ist eine Ansage.
Die Modelle im Überblick
- Gemma 4 2B (E2B)** — „Effective" 2 Milliarden Parameter
- Gemma 4 4B (E4B)** — „Effective" 4 Milliarden Parameter
- Gemma 4 31B** — das Flaggschiff
- Gemma 4 26B-A4B** — Mixture-of-Experts, 26 Mrd. gesamt, nur 4 Mrd. aktiv
Das „E" bei den kleinen Modellen steht für „Effective". Google sagt damit: Die Dinger leisten mehr als ihre Parameterzahl vermuten lässt.
Was das bedeutet
Kleine, effiziente Modelle sind gerade das heißeste Forschungsfeld überhaupt. Google nennt es „unprecedented level of intelligence-per-parameter" — und liefert damit den nächsten Beweis: Die Zukunft gehört nicht den größten Modellen, sondern den cleversten. Apache 2.0 heißt: Jeder kann die Dinger nehmen, umbauen, kommerziell nutzen. Keine Einschränkungen.
✅ Pro
- Apache 2.0 — vollständig offen, kommerziell nutzbar
- Vision + Reasoning in allen vier Varianten
- MoE-Variante aktiviert nur 4B von 26B Parametern — extrem effizient
- Vier Größen für jeden Einsatzzweck
❌ Con
- Benchmark-Details noch dünn — „intelligence-per-parameter" ist erstmal Marketing
- Google hat bei Open Source schon öfter groß angekündigt und leise aufgehört
Der MoE-Trick
Die 26B-A4B-Variante ist der eigentliche Star. 26 Milliarden Parameter im Modell, aber pro Anfrage werden nur 4 Milliarden aktiviert. Das spart Rechenleistung und macht das Modell auf Consumer-Hardware lauffähig — bei deutlich besserer Leistung als ein echtes 4B-Modell.