Measuring the Redundancy of Decoder Layers in SpeechLLMs
Cette étude démontre que les modèles de langage pour la parole (SpeechLLMs) héritent d'une forte redondance de leurs couches de décodeur préentraînées, permettant de supprimer jusqu'à 40 % de ces couches tout en maintenant des performances solides pour la reconnaissance et la traduction de la parole, quelle que soit l'échelle du modèle ou la langue cible.