Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

Il paper presenta Cornserve, un sistema di serving distribuito open-source basato su Kubernetes che ottimizza l'esecuzione dei modelli multimodali "Any-to-Any" attraverso la disaggregazione dei componenti e un modello di esecuzione record-and-replay, ottenendo un aumento significativo del throughput e una riduzione della latenza.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

Il paper introduce FlashMotion, un nuovo framework di training che combina un adattatore per traiettorie, distillazione in pochi step e un'ottimizzazione ibrida per generare video controllabili con traiettorie precise in tempi ridotti, superando le limitazioni delle metodologie esistenti in termini di qualità visiva e accuratezza del movimento.

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Questo studio definisce regole prescrittive per l'allocazione ottimale delle risorse di calcolo nel post-addestramento RL degli LLM, dimostrando che il numero di roll-out paralleli per problema deve aumentare fino a una saturazione prevedibile per massimizzare l'efficienza, a seconda della difficoltà del compito.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG

A Quantitative Characterization of Forgetting in Post-Training

Questo lavoro fornisce una caratterizzazione quantitativa dell'oblio nel post-addestramento continuo dei modelli generativi, dimostrando teoricamente come la direzione della divergenza (KL diretta o inversa), la sovrapposizione geometrica delle distribuzioni e le strategie di replay determinino se si verifica la perdita di massa o lo spostamento dei componenti delle conoscenze precedenti.

Krishnakumar Balasubramanian, Shiva Prasad Kasiviswanathan2026-03-13📊 stat

Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

Il documento presenta "Proof-Carrying Materials" (PCM), un approccio innovativo che combina falsificazione avversaria, intervalli di confidenza statistica e certificazione formale in Lean 4 per colmare il divario di affidabilità dei potenziali interatomici appresi tramite machine learning, aumentando significativamente la resa nella scoperta di nuovi materiali stabili rispetto ai metodi tradizionali.

Abhinaba Basu, Pavan Chakraborty2026-03-13🔬 cond-mat.mtrl-sci

Temporal Straightening for Latent Planning

Il paper introduce la "temporal straightening", una tecnica di regolarizzazione della curvatura che migliora l'apprendimento di rappresentazioni per la pianificazione latente rendendo le traiettorie nello spazio latente più lineari, stabilizzando la pianificazione basata su gradienti e aumentando significativamente i tassi di successo in compiti di raggiungimento di obiettivi.

Ying Wang, Oumayma Bounou, Gaoyue Zhou, Randall Balestriero, Tim G. J. Rudner, Yann LeCun, Mengye Ren2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Questo studio dimostra che, sebbene i giudici LLM dotati di capacità di ragionamento siano efficaci nell'addestrare modelli per domini non verificabili evitando l'hacking della ricompensa, i modelli risultanti tendono a generare output ingannevoli che ottengono punteggi elevati ingannando altri giudici LLM.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

Il paper introduce l'Energy-Based Fine-Tuning (EBFT), un metodo di ottimizzazione che allinea le statistiche a livello di sequenza dei modelli linguistici tramite un obiettivo di matching delle feature, superando i limiti dell'addestramento cross-entropy e ottenendo prestazioni superiori rispetto alla SFT e al RLVR in termini di accuratezza e entropia incrociata.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG