FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning
Die Arbeit stellt FedEMA-Distill vor, eine serverseitige Methode für robustes und kommunikationseffizientes Federated Learning, die durch die Kombination von Exponential Moving Average und Ensemble-Knowledge-Distillation auf Basis von Client-Logits die Genauigkeit unter nicht-IID-Datenbedingungen und Byzantine-Angriffen verbessert, ohne Änderungen an der Client-Software zu erfordern.