FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning
Het artikel introduceert FedEMA-Distill, een serverzijde methode voor federatief leren die exponentiële voortschrijdende gemiddelden en kennisdistillatie op basis van client-logits combineert om de nauwkeurigheid te verhogen, de communicatiekosten te verlagen en de weerstand tegen Byzantijnse aanvallen te vergroten, zonder aanpassingen aan de client-zijde of modelhomogeniteit te vereisen.