Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs
Cette étude démontre que l'utilisation de l'adaptation à faible rang (LoRA) dans l'apprentissage fédéré pour les grands modèles de langage réduit considérablement la mémorisation des données d'entraînement, limitant ainsi les risques de fuite d'informations privées sans compromettre les performances du modèle.