Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs
Dit paper toont aan dat het gebruik van Low-Rank Adaptation (LoRA) in federatief leren voor grote taalmodellen de onbedoelde memorisatie van trainingsdata tot wel tien keer vermindert zonder significante prestatieverliezen, zelfs in risicovolle domeinen zoals geneeskunde, recht en financiën.