Prompt-Tuning soll KI grünen Code beibringen
Forscher wollen LLMs den Stromfresser-Code abgewöhnen. Ihre Waffe: Contrastive Prompt Tuning.
Das Problem
LLMs schreiben Code, der funktioniert. Aber dieser Code säuft Energie wie ein Bitcoin-Miner aus 2021. Verglichen mit menschlichen Lösungen ist KI-generierter Code oft messbar ineffizienter.
Das passt nicht zu Green Software Development — dem Versuch, Software weniger stromhungrig zu machen.
Wie es funktionieren soll
Ein Forscherteam hat untersucht, ob man LLMs per Prompt-Tuning dazu bringen kann, energiesparenderen Code auszuspucken. Die Methode heißt Contrastive Prompt Tuning.
- Prinzip:** Das Modell lernt durch Gegenüberstellung von energieeffizientem und ineffizientem Code
- Ziel:** Bessere Defaults ohne Feintuning des gesamten Modells
- Ansatz:** Nur die Prompts werden optimiert, nicht die Gewichte
✅ Pro
- Ressourcenschonender als volles Feintuning
- Adressiert ein echtes, messbares Problem
- Könnte in bestehende Workflows integriert werden
❌ Con
- Noch reine Forschung — kein Tool, kein Release
- Unklar, wie groß der Effekt in der Praxis ist
- Paper liefert erst eine "Initial Exploration"
💡 Was das bedeutet
Für den Alltag erstmal: nichts. Aber die Fragestellung ist relevant. Wenn KI-generierter Code in Millionen Projekten landet und überall 10–30% mehr Strom zieht, summiert sich das brutal. Wer Prompt-Tuning statt Full-Finetuning nutzen kann, spart doppelt — beim Training und beim Output.