Multi-level informed optimization via decomposed Kriging for large design problems under uncertainty

Il paper propone un approccio di ottimizzazione multi-livello basato su Kriging decomposto che, adattando gerarchicamente e ortogonalmente i surrogate, risolve in modo efficiente e preciso problemi ingegneristici complessi ad alta dimensionalità sotto incertezza, superando i limiti di scalabilità e precisione dei metodi attuali.

Enrico Ampellio, Blazhe Gjorgiev, Giovanni Sansavini2026-02-27⚡ eess

Learning to Answer from Correct Demonstrations

Questo lavoro propone un metodo di apprendimento per la generazione di risposte basato sull'apprendimento per imitazione in contesti a scelta multipla, che supera i limiti della massimizzazione della verosimiglianza assumendo solo che il modello di ricompensa sottostante appartenga a una classe a complessità limitata, garantendo così una complessità di campionamento logaritmica e prestazioni ottimali anche con dimostrazioni adattive.

Nirmit Joshi, Gene Li, Siddharth Bhandari + 3 more2026-02-27📊 stat

Simplex-to-Euclidean Bijections for Categorical Flow Matching

Il paper propone un metodo per l'apprendimento e il campionamento di distribuzioni di probabilità sul simplezzo mappandolo in uno spazio euclideo tramite biezioni lisce basate sulla geometria di Aitchison e un'interpolazione di Dirichlet, permettendo così una modellazione della densità nello spazio euclideo con recupero esatto della distribuzione discreta originale.

Bernardo Williams, Victor M. Yeom-Song, Marcelo Hartmann + 1 more2026-02-27🤖 cs.LG

Temporal Sparse Autoencoders: Leveraging the Sequential Nature of Language for Interpretability

Il paper introduce i Temporal Sparse Autoencoders (T-SAEs), un metodo che incorpora una perdita di contrasto temporale per sfruttare la struttura sequenziale del linguaggio, permettendo così di scoprire concetti semantici più coerenti e interpretabili rispetto ai tradizionali Sparse Autoencoders senza richiedere segnali semantici espliciti.

Usha Bhalla, Alex Oesterling, Claudio Mayrink Verdun + 2 more2026-02-27💬 cs.CL

UniQL: Unified Quantization and Low-rank Compression for Adaptive Edge LLMs

Il paper presenta UniQL, un framework unificato di post-training che combina quantizzazione e compressione a basso rango con potatura configurabile in tempo reale, permettendo di distribuire modelli linguistici su dispositivi edge con riduzioni di memoria fino a 5,7 volte e miglioramenti del throughput fino a 3,4 volte mantenendo un'accuratezza elevata.

Hung-Yueh Chiang, Chi-Chih Chang, Yu-Chen Lu + 4 more2026-02-27🤖 cs.AI

One-Step Diffusion Samplers via Self-Distillation and Deterministic Flow

Questo lavoro introduce un campionatore di diffusione a un singolo passo che, combinando l'auto-distillazione per allineare le traiettorie e un nuovo peso di importanza a flusso deterministico con regolarizzazione di consistenza volumetrica, permette di generare campioni di alta qualità e stime stabili dell'ELBO con un numero di valutazioni della rete inferiore di ordini di grandezza rispetto ai metodi esistenti.

Pascal Jutras-Dube, Jiaru Zhang, Ziran Wang + 1 more2026-02-27📊 stat

WebGym: Scaling Training Environments for Visual Web Agents with Realistic Tasks

Il paper presenta WebGym, il più grande ambiente open-source per l'addestramento di agenti web visivi su quasi 300.000 compiti reali, che grazie a un sistema di rollout asincrono ad alta velocità e a un'ampia diversità di task, permette di ottenere un modello basato su Qwen-3-VL-8B-Instruct che supera le prestazioni di modelli proprietari come GPT-4o e GPT-5-Thinking su test fuori distribuzione.

Hao Bai, Alexey Taymanov, Tong Zhang + 2 more2026-02-27🤖 cs.LG