EXPERIMENTAL
SoLA schrumpft LLMs ohne Training
Forscher haben eine neue Methode vorgestellt, die große Sprachmodelle kleiner macht — ohne sie neu trainieren zu müssen. Das Paper heißt "SoLA" und kombiniert zwei Tricks: Soft ...
arXiv AI/ML/NLP
· 2026-04-07 07:17:53.968921+00:00
· Score 2/10