Diffusion Language Models Are Natively Length-Aware
Die vorgestellte Arbeit zeigt, dass Diffusionssprachmodelle durch eine zero-shot-Mechanik zur dynamischen Vorschätzung der erforderlichen Antwortlänge aus dem latenten Prompt-Input erheblich rechnerisch effizienter werden, ohne dabei die Leistung auf gängigen Benchmarks zu beeinträchtigen.