AMiD: Knowledge Distillation for LLMs with -mixture Assistant Distribution
Dit artikel introduceert AMiD, een unificerend kader voor kennisdistillatie van grote taalmodellen dat gebruikmaakt van een nieuwe -gemengde assistentverdeling om trainingsstabiliteit en prestaties te verbeteren door de beperkingen van eerdere methoden te overwinnen.