An operator splitting analysis of Wasserstein--Fisher--Rao gradient flows

Questo studio analizza l'impatto dell'ordine di splitting degli operatori nei flussi gradiente di Wasserstein-Fisher-Rao, dimostrando che una scelta appropriata della dimensione del passo e della sequenza operativa può garantire una convergenza alla distribuzione target più rapida rispetto al flusso WFR esatto, fornendo inoltre nuove formule variazionali e il primo limite di decadimento preciso per tali flussi.

Francesca Romana Crucinio, Sahani Pathiraja2026-03-02📊 stat

Reinforcement-Learned Unequal Error Protection for Quantized Semantic Embeddings

Questo articolo presenta un nuovo framework di apprendimento per rinforzo che utilizza una codifica di ripetizione adattiva per garantire una protezione dagli errori diseguale a livello di dimensione nelle embedding semantiche quantizzate, migliorando significativamente la fedeltà semantica e la preservazione delle entità in scenari a banda limitata rispetto alle tecniche di protezione uniforme tradizionali.

Moirangthem Tiken Singh, Adnan Arif2026-03-02🤖 cs.LG

CSyMR: Benchmarking Compositional Music Information Retrieval in Symbolic Music Reasoning

Il paper introduce CSyMR-Bench, un benchmark per il recupero compositivo di informazioni musicali su spartiti simbolici basato su scenari reali, e propone un framework di ragionamento potenziato da strumenti che integra operatori di analisi simbolica deterministica con modelli linguistici, dimostrando guadagni significativi di accuratezza rispetto agli approcci basati esclusivamente su LLM.

Boyang Wang, Yash Vishe, Xin Xu + 4 more2026-03-02⚡ eess

GreenServ: Energy-Efficient Context-Aware Dynamic Routing for Multi-Model LLM Inference

Il paper presenta GreenServ, un framework di routing dinamico e consapevole del contesto che ottimizza il compromesso tra accuratezza ed efficienza energetica nell'inferenza di LLM multi-modello, utilizzando un approccio a bandito multi-braccio per instradare le query al modello più adatto e dimostrando, rispetto a strategie statiche o casuali, un aumento dell'accuratezza e una significativa riduzione del consumo energetico.

Thomas Ziller, Shashikant Ilager, Alessandro Tundo + 3 more2026-03-02🤖 cs.LG

Quant VideoGen: Auto-Regressive Long Video Generation via 2-Bit KV-Cache Quantization

Il paper presenta Quant VideoGen (QVG), un framework senza addestramento che utilizza la quantizzazione a 2 bit della cache KV tramite smoothing semantico e quantizzazione progressiva dei residui per ridurre fino a 7 volte l'uso di memoria nelle generazioni video autoregressive, migliorando al contempo la coerenza a lungo termine e mantenendo un basso overhead di latenza.

Haocheng Xi, Shuo Yang, Yilong Zhao + 13 more2026-03-02🤖 cs.LG