Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs
Este artigo demonstra que a adaptação de baixo rank (LoRA) reduz significativamente a memorização indesejada em modelos de linguagem grandes treinados por aprendizado federado, preservando o desempenho e podendo ser combinada com outras técnicas de privacidade para proteger dados sensíveis em domínios críticos.