Diffusion Language Models Are Natively Length-Aware
Este artigo propõe um mecanismo zero-shot que utiliza a representação latente do prompt para estimar e ajustar dinamicamente o tamanho do contexto em Modelos de Linguagem de Difusão antes da geração, resultando em ganhos significativos de eficiência computacional sem comprometer o desempenho em diversas tarefas.