Dieses Framework lässt LLMs sich selbst aufrufen
Ein Forscher hat eine Open-Source-Bibliothek gebaut, die Sprachmodelle rekursiv auf ihre eigenen Outputs loslässt. Klingt nach Inception für KI — und funktioniert tatsächlich.
Was RLMs anders machen
Normale LLMs bekommen einen Prompt, spucken eine Antwort aus, fertig. Recursive Language Models drehen das um: Das Modell zerlegt seine Eingabe selbstständig in Teile, ruft sich selbst erneut auf und arbeitet sich Schicht für Schicht durch den Kontext. Theoretisch kann es damit unendlich lange Texte verarbeiten.
Wie es technisch läuft
- Prinzip:** Das LLM untersucht den Input, zerlegt ihn, ruft sich rekursiv selbst auf
- Vorteil:** Kein fixes Kontextfenster mehr — das Modell skaliert sich selbst
- Architektur:** Plug-and-play-Library, funktioniert mit verschiedenen Sandboxes
- Basis:** Peer-reviewed Paper plus Blogpost plus Dokumentation vorhanden
💡 Was das bedeutet
Kontextlänge ist seit Jahren das Nadelöhr bei LLMs. Wer 200K Token hat, stößt trotzdem an Grenzen. RLMs umgehen das Problem elegant: Statt mehr Kontext zu brauchen, bricht das Modell die Aufgabe selbst runter. Das ist kein fertiges Produkt — aber ein cleverer Denkansatz.
✅ Pro
- Theoretisch unbegrenzter Kontext
- Task-agnostisch — funktioniert für alles
- Open Source mit Paper-Backing
❌ Con
- Einzelner Forscher, kein großes Lab dahinter
- Latenz durch rekursive Aufrufe unklar
- Praxistauglichkeit noch nicht breit validiert