Summarize Before You Speak with ARACH: A Training-Free Inference-Time Plug-In for Enhancing LLMs via Global Attention Reallocation

Il paper presenta ARACH, un plug-in di inferenza senza addestramento che migliora le prestazioni dei grandi modelli linguistici aggregando il contesto e riallocando l'attenzione interna per mitigare il fenomeno dell'attention sink, offrendo un approccio alternativo sia ai metodi basati sui prompt che a quelli che richiedono aggiornamenti dei pesi.

Jingtao Wang, Yucong Wang, Jun Ding, Rui Cai, Xun Wang2026-03-13💬 cs.CL

From Phase Prediction to Phase Design: A ReAct Agent Framework for High-Entropy Alloy Discovery

Questo lavoro presenta un agente LLM basato sul framework ReAct che, integrando un modello surrogato XGBoost addestrato su dati sperimentali, risolve in modo autonomo e iterativo il problema inverso di progettazione delle leghe ad alta entropia, superando le tecniche di ottimizzazione tradizionali e guidando la scoperta di composizioni chimiche innovative e diversificate.

Iman Peivaste, Salim Belouettar2026-03-13🔬 cond-mat.mtrl-sci

OA-NBV: Occlusion-Aware Next-Best-View Planning for Human-Centered Active Perception on Mobile Robots

Il paper presenta OA-NBV, un sistema di pianificazione della prossima vista migliore che, integrando percezione e pianificazione del movimento, permette ai robot mobili di selezionare autonomamente punti di vista ottimali per osservare persone parzialmente occluse, superando significativamente le prestazioni dei metodi esistenti in termini di successo e qualità dell'osservazione.

Boxun Hu, Chang Chang, Jiawei Ge, Man Namgung, Xiaomin Lin, Axel Krieger, Tinoosh Mohsenin2026-03-13🤖 cs.AI

DIVE: Scaling Diversity in Agentic Task Synthesis for Generalizable Tool Use

Il paper presenta DIVE, un metodo che inverte l'ordine di sintesi dei compiti agenziali eseguendo prima strumenti reali per garantire diversità strutturale, ottenendo così un miglioramento significativo nella generalizzazione fuori distribuzione rispetto ai metodi basati sulla semplice quantità di dati.

Aili Chen, Chi Zhang, Junteng Liu, Jiangjie Chen, Chengyu Du, Yunji Li, Ming Zhong, Qin Wang, Zhengmao Zhu, Jiayuan Song, Ke Ji, Junxian He, Pengyu Zhao, Yanghua Xiao2026-03-13🤖 cs.AI

Quality-Driven Agentic Reasoning for LLM-Assisted Software Design: Questions-of-Thoughts (QoT) as a Time-Series Self-QA Chain

Questo articolo presenta Questions-of-Thoughts (QoT), un nuovo metodo di ragionamento agente guidato dalla qualità che trasforma gli obiettivi utente in sequenze di passi ingegneristici e auto-verifiche per migliorare la progettazione software assistita da LLM, dimostrando guadagni significativi in termini di scalabilità, completezza, modularità e sicurezza, specialmente nei modelli più grandi e nei domini complessi.

Yen-Ku Liu, Yun-Cheng Tsai2026-03-13🤖 cs.AI

A Survey of Reasoning in Autonomous Driving Systems: Open Challenges and Emerging Paradigms

Questo articolo propone un quadro sistematico per integrare modelli cognitivi avanzati nei sistemi di guida autonoma, identificando le sfide chiave nel passaggio da un approccio basato sulla percezione a uno fondato sul ragionamento e delineando la necessità di architetture neuro-simboliche per colmare il divario tra la deliberazione dei grandi modelli linguistici e i requisiti di sicurezza in tempo reale.

Kejin Yu, Yuhan Sun, Taiqiang Wu, Ruixu Zhang, Zhiqiang Lin, Yuxin Meng, Junjie Wang, Yujiu Yang2026-03-13🤖 cs.AI

Thousand-GPU Large-Scale Training and Optimization Recipe for AI-Native Cloud Embodied Intelligence Infrastructure

Questo lavoro presenta la prima piattaforma di addestramento distribuito su cloud basata su mille GPU per l'intelligenza incarnata, che ottimizza l'intera pipeline dai dati all'infrastruttura per ridurre i tempi di addestramento del modello GR00T-N1.5 di 40 volte e creare un sistema di valutazione end-to-end che accelera lo sviluppo di robot autonomi.

Chen Zhou, Haoran Sun, Hedan Yang, Jing Long, Junwu Xiong, Luqiao Wang, Mingxi Luo, Qiming Yang, Shuai Di, Song Wang, Tianyun Zhao, Wanting Xu, Wen Huang, Xiaodong Bai, Xiaomeng Tian, Xiaolong Xiang, Yicheng Gong, Yongjian Guo, Yucheng Guo, Yunxuan Ma, Yu Wei, Zhong Guan, Zhen Sun2026-03-13🤖 cs.AI

WebWeaver: Breaking Topology Confidentiality in LLM Multi-Agent Systems with Stealthy Context-Based Inference

Il paper presenta WebWeaver, un framework di attacco che infere in modo stealthy la topologia completa dei sistemi multi-agente basati su LLM compromettendo un singolo agente arbitrario e sfruttando contesti e meccanismi di diffusione, superando così i limiti delle metodologie precedenti che dipendono da assunzioni irrealistiche.

Zixun Xiong, Gaoyi Wu, Lingfeng Yao, Miao Pan, Xiaojiang Du, Hao Wang2026-03-13🤖 cs.AI

PACED: Distillation at the Frontier of Student Competence

Il paper introduce Paced, un framework di distillazione che ottimizza l'efficienza computazionale concentrando l'addestramento sulla "zona di sviluppo prossimale" del modello studente, dove il rapporto segnale-rumore dei gradienti è massimo, utilizzando una funzione di ponderazione basata sulla distribuzione Beta per massimizzare i guadagni nelle prestazioni senza dimenticare le conoscenze pregresse.

Yuanda Xu, Hejian Sang, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-13🤖 cs.AI