Measuring the Redundancy of Decoder Layers in SpeechLLMs
De studie toont aan dat decoderlagen in spraak-LLM's grotendeels overbodig zijn, waarbij zelfs 7-8B modellen met slechts 60% van de lagen goede spraakherkenningsprestaties behouden en deze redundantie consistent blijft over verschillende schalen, taken en talen.