Planner Aware Path Learning in Diffusion Language Models Training

Questo articolo introduce il Planner Aware Path Learning (PAPL), un nuovo metodo di addestramento per i modelli di linguaggio a diffusione che risolve la discrepanza tra l'inferenza pianificata e l'addestramento standard derivando un nuovo limite inferiore della verosimiglianza (P-ELBO) che allinea dinamicamente i processi di training e inferenza, ottenendo significativi miglioramenti nella generazione di proteine, testo e codice.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

Il paper introduce DAV, un nuovo framework che formula l'allineamento dei modelli di diffusione come un processo iterativo di Massimizzazione Aspettazione-Variational (EM) con fasi di ricerca a tempo di test e affinamento del modello, ottimizzando le ricompense mantenendo la diversità sia per compiti continui che discreti.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG

Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Questo articolo dimostra che, sebbene i modelli linguistici decoder-only siano inizialmente inferiori agli encoder-only nell'adattamento cross-modale per le equazioni differenziali parziali, l'introduzione di due nuove tecniche che mimano la bidirezionalità (Parallel Flipping e Sequence Doubling) permette di colmare il divario di prestazioni.

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG

FireScope: Wildfire Risk Prediction with a Chain-of-Thought Oracle

Il paper introduce FireScope, un framework basato su modelli visivo-linguistici che integra ragionamento causale e dati multimodali per generare mappe di rischio incendi ad alta risoluzione con elevata generalizzazione transcontinentale e interpretabilità.

Mario Markov (INSAIT, Sofia University "St. Kliment Ohridski"), Stefan Maria Ailuro (INSAIT, Sofia University "St. Kliment Ohridski"), Luc Van Gool (INSAIT, Sofia University "St. Kliment Ohridski"), Konrad Schindler (ETH Zurich), Danda Pani Paudel (INSAIT, Sofia University "St. Kliment Ohridski")2026-03-09🤖 cs.LG

Whatever Remains Must Be True: Filtering Drives Reasoning in LLMs, Shaping Diversity

Questo lavoro propone un metodo basato sulla divergenza α\alpha per allineare i modelli linguistici a una distribuzione target ottenuta filtrando le risposte errate, permettendo di controllare esplicitamente il compromesso tra precisione e diversità e superando gli approcci precedenti nel benchmark di dimostrazione di teoremi Lean.

Germán Kruszewski, Pierre Erbacher, Jos Rozen, Marc Dymetman2026-03-09🤖 cs.AI