Identifying and Evaluating Inactive Heads in Pretrained LLMs
Cette étude propose et évalue douze fonctions de score pour identifier les têtes d'attention inactives dans les grands modèles de langage, démontrant que plus de 12 % de ces têtes peuvent être supprimées sans perte significative de performance et que les méthodes basées uniquement sur les poids d'attention sous-estiment considérablement ce phénomène.