ZorBA: Zeroth-order Federated Fine-tuning of LLMs with Heterogeneous Block Activation
Die Arbeit stellt ZorBA vor, ein Framework für das federierte Fine-Tuning von LLMs, das durch den Einsatz von Zeroth-Order-Optimierung und einer heterogenen Blockaktivierung den VRAM-Verbrauch erheblich senkt und gleichzeitig die Konvergenz beschleunigt.