Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

Il paper introduce Slow-Fast Inference, un metodo di inferenza senza addestramento che accelera la decodifica a lungo contesto sfruttando la stabilità dell'attenzione all'interno delle frasi per alternare passi veloci con memoria sparsa a passi lenti che aggiornano il contesto, ottenendo un throughput fino a 14,4 volte superiore mantenendo la qualità.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG

XSkill: Continual Learning from Experience and Skills in Multimodal Agents

Il paper presenta XSkill, un framework a doppio flusso che permette agli agenti multimodali di migliorare continuamente senza aggiornare i parametri, estraendo e recuperando conoscenza visivamente contestualizzata sotto forma di esperienze (guida a livello di azione) e competenze (guida a livello di compito) per ottimizzare l'orchestrazione degli strumenti e il ragionamento in ambienti aperti.

Guanyu Jiang (May), Zhaochen Su (May), Xiaoye Qu (May), Yi R. (May), Fung2026-03-13🤖 cs.AI

Paper Title: LoV3D: Grounding Cognitive Prognosis Reasoning in Longitudinal 3D Brain MRI via Regional Volume Assessments

Il paper presenta LoV3D, un pipeline innovativo che utilizza modelli visione-linguaggio 3D per analizzare risonanze magnetiche cerebrali longitudinali, combinando valutazioni volumetriche regionali e un verifcatore clinico per generare diagnosi di demenza e riassunti diagnostici con elevata accuratezza e riducendo le allucinazioni.

Zhaoyang Jiang, Zhizhong Fu, David McAllister, Yunsoo Kim, Honghan Wu2026-03-13🤖 cs.AI

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Il paper propone un metodo efficiente di ricerca neurale (NAS) basato su modelli linguistici di grandi dimensioni (LLM) che, tramite un ciclo chiuso con memoria di feedback storica e l'uso di due LLM specializzati, genera e affina iterativamente architetture di reti neurali convoluzionali adatte alla distribuzione su dispositivi edge, ottenendo risultati significativi su dataset come CIFAR-10 con un singolo GPU consumer senza necessità di fine-tuning dei modelli.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

A Robust and Efficient Multi-Agent Reinforcement Learning Framework for Traffic Signal Control

Questo articolo presenta un framework robusto ed efficiente di Apprendimento per Rinforzo Multi-Agente (MARL) per il controllo dei semafori, che integra randomizzazione dei rapporti di svolta, un'azione di durata esponenziale delle fasi e osservazioni basate sui vicini per migliorare la generalizzazione e ridurre i tempi di attesa del traffico.

Sheng-You Huang, Hsiao-Chuan Chang, Yen-Chi Chen, Ting-Han Wei, I-Hau Yeh, Sheng-Yao Kuan, Chien-Yao Wang, Hsuan-Han Lee, I-Chen Wu2026-03-13🤖 cs.AI

On Information Self-Locking in Reinforcement Learning for Active Reasoning of LLM agents

Il paper identifica e risolve il problema del "blocco informativo" negli agenti LLM addestrati con apprendimento per rinforzo, proponendo una strategia di riallocazione del segnale di apprendimento che migliora significativamente le capacità di selezione delle azioni e tracciamento delle credenze, portando a incrementi fino al 60% nelle prestazioni di ragionamento attivo.

Deyu Zou, Yongqiang Chen, Fan Feng, Mufei Li, Pan Li, Yu Gong, James Cheng2026-03-13🤖 cs.AI

SommBench: Assessing Sommelier Expertise of Language Models

Il paper introduce SommBench, un benchmark multilingue sviluppato in collaborazione con sommelier professionisti per valutare l'expertise enologica dei modelli linguistici, rivelando che, sebbene eccellano nelle domande teoriche, faticano significativamente nel completare le caratteristiche sensoriali e nell'abbinamento cibo-vino.

William Brach, Tomas Bedej, Jacob Nielsen, Jacob Pichna, Juraj Bedej, Eemeli Saarensilta, Julie Dupouy, Gianluca Barmina, Andrea Blasi Núñez, Peter Schneider-Kamp, Kristian Koštál, Michal Ries, Lukas Galke Poech2026-03-13💬 cs.CL

FlashMotion: Few-Step Controllable Video Generation with Trajectory Guidance

Il paper introduce FlashMotion, un nuovo framework di training che combina un adattatore per traiettorie, distillazione in pochi step e un'ottimizzazione ibrida per generare video controllabili con traiettorie precise in tempi ridotti, superando le limitazioni delle metodologie esistenti in termini di qualità visiva e accuratezza del movimento.

Quanhao Li, Zhen Xing, Rui Wang, Haidong Cao, Qi Dai, Daoguo Dong, Zuxuan Wu2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Questo studio definisce regole prescrittive per l'allocazione ottimale delle risorse di calcolo nel post-addestramento RL degli LLM, dimostrando che il numero di roll-out paralleli per problema deve aumentare fino a una saturazione prevedibile per massimizzare l'efficienza, a seconda della difficoltà del compito.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG