DyLLM: Efficient Diffusion LLM Inference via Saliency-based Token Selection and Partial Attention
El artículo presenta DyLLM, un marco de inferencia sin entrenamiento que acelera la generación de modelos de lenguaje de difusión enmascarada al identificar y calcular selectivamente solo los tokens salientes, logrando un aumento de hasta 9,6 veces en el rendimiento sin comprometer la precisión.