Diffusion Language Models Are Natively Length-Aware
Il paper propone un meccanismo zero-shot che, sfruttando la rappresentazione del prompt latente per stimare dinamicamente la lunghezza necessaria dell'output, permette ai Modelli Linguistici Diffusivi di ridurre significativamente il costo computazionale e i FLOPs senza compromettere le prestazioni.