Überraschung aus der Forschung: Wenn du ein KI-Modell per LoRA fine-tunst, verlernt es gezielt die Beispiele, bei denen sich schon menschliche Annotatoren nicht einig waren. Kein ...
Forscher haben aufgehört, bei LoRA einfach blind jeden Layer zu bekleben. Aletheia wählt per Gradient-Probe nur die Layer aus, die für die Aufgabe wirklich zählen — der Rest ...
Ein ganzes Haiku — komprimiert auf 10 Bit. Forscher zeigen, dass große Sprachmodelle Texte so brutal zusammenstauchen können, wie es kein klassischer Algorithmus je könnte.
Schluss mit Cloud-Abhängigkeit. Unsloth Studio ist eine neue Web-Oberfläche, die Open-Source-Modelle wie Qwen3.5, Gemma 4 und DeepSeek direkt auf dem eigenen Rechner trainiert und ...
Ein Chinese hat ein komplettes LLM auf GitHub gestellt — und du kannst es in zwei Stunden selbst trainieren. Auf deiner eigenen GPU. Für umgerechnet 40 Cent.