Hugging Face automatisiert LLM-Training mit einem Agenten
Hugging Face hat ml-intern veröffentlicht — einen Open-Source-Agenten, der den kompletten Post-Training-Workflow für Large Language Models übernimmt. Von Literaturrecherche bis Evaluation, alles automatisch.
Was ml-intern macht
Der Agent läuft als Endlos-Schleife und spiegelt den Workflow eines ML-Forschers:
- Literatur-Review:** Durchsucht Papers nach relevanten Methoden
- Dataset Discovery:** Findet passende Trainingsdaten automatisch
- Training:** Führt Skripte eigenständig aus
- Evaluation:** Bewertet Ergebnisse und iteriert
Das Ganze basiert auf Hugging Faces eigenem smolagents-Framework. Kein proprietärer Kram, kein Vendor-Lock-in.
💡 Was das bedeutet
Post-Training ist der Teil, der aus einem rohen Sprachmodell ein brauchbares Produkt macht — Finetuning, Alignment, Evaluation. Bisher saßen da echte Menschen dran, oft tagelang. ml-intern will diesen Engpass beseitigen. Für kleine Teams und Solo-Forscher könnte das den Unterschied machen zwischen "wir können uns Post-Training nicht leisten" und "wir lassen den Agenten über Nacht laufen".
✅ Pro
- Open Source — jeder kann es nutzen und anpassen
- End-to-End: deckt die gesamte Pipeline ab
- Baut auf dem bewährten smolagents-Framework auf
❌ Con
- Kein Top-Lab-Release — Hugging Face baut Tools, keine Frontier-Modelle
- Qualität der autonomen Entscheidungen noch unklar
- Abhängig davon, wie gut das unterliegende LLM den Agenten steuert
Einordnung
Hugging Face macht das, was sie am besten können: Infrastruktur für alle. ml-intern ist kein Forschungsdurchbruch, sondern ein Werkzeug. Es demokratisiert einen Workflow, der bisher nur großen Labs mit genug Personal vorbehalten war. Die Frage ist nicht ob solche Agenten kommen — sondern ob sie zuverlässig genug arbeiten, um echte Forscher zu ersetzen statt nur zu nerven.