Overcoming Visual Clutter in Vision Language Action Models via Concept-Gated Visual Distillation

Ce papier propose le cadre d'inférence sans entraînement et indépendant du modèle, appelé distillation visuelle à porte conceptuelle (CGVD), qui surmonte le « fossé précision-raisonnement » des modèles vision-langage-action dans des environnements encombrés en éliminant le bruit sémantique via l'inpainting de Fourier et en ciblant précisément les objets à manipuler, permettant ainsi d'atteindre un taux de réussite de 77,5 % contre 43,0 % pour les méthodes de l'état de l'art.

Sangmim Song, Sarath Kodagoda, Marc Carmichael, Karthick Thiyagarajan2026-03-12⚡ eess

HEAL: Hindsight Entropy-Assisted Learning for Reasoning Distillation

Ce papier présente HEAL, un cadre d'apprentissage sans renforcement qui surpasse les méthodes de distillation traditionnelles en surmontant la « limite de l'enseignant » grâce à une intervention active guidée par l'entropie, un filtrage rigoureux et une évolution progressive du curriculum inspirée de la zone de développement prochain.

Wenjing Zhang, Jiangze Yan, Jieyun Huang, Yi Shen, Shuming Shi, Ping Chen, Ning Wang, Zhaoxiang Liu, Kai Wang, Shiguo Lian2026-03-12🤖 cs.AI

Beyond Interleaving: Causal Attention Reformulations for Generative Recommender Systems

Cet article propose une reformulation des systèmes de recommandation génératifs via deux nouvelles architectures (AttnLFA et AttnMVP) qui éliminent l'intercalage inefficace des jetons pour modéliser explicitement la causalité entre les éléments et les actions, permettant ainsi d'améliorer les performances tout en réduisant la complexité computationnelle et le temps d'entraînement.

Hailing Cheng2026-03-12🤖 cs.AI

Few-Shot Adaptation to Non-Stationary Environments via Latent Trend Embedding for Robotics

Cet article propose un cadre d'adaptation à quelques exemples pour les systèmes robotiques opérant dans des environnements non stationnaires, qui estime un identifiant de tendance latent régularisé temporellement pour compenser les changements de concept sans modifier les paramètres du modèle.

Yasuyuki Fujii (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan), Emika Kameda (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan), Hiroki Fukada (Production and Technology Department, NIPPN CORPORATION, Tokyo, Japan), Yoshiki Mori (University of Osaka, Osaka, Japan), Tadashi Matsuo (National Institute of Technology, Ichinoseki College, Iwate, Japan), Nobutaka Shimada (College of Information Science and Engineering, Ritsumeikan University, Osaka, Japan)2026-03-12🤖 cs.AI

Causal Concept Graphs in LLM Latent Space for Stepwise Reasoning

Cet article propose les Graphes de Concepts Causaux (CCG), une méthode combinant des autoencodeurs épars et un apprentissage de structure différentiable pour cartographier les dépendances causales entre concepts dans l'espace latent des LLM, démontrant ainsi une supériorité significative sur les approches existantes pour le raisonnement étape par étape.

Md Muntaqim Meherab, Noor Islam S. Mohammad, Faiza Feroz2026-03-12🤖 cs.LG

Safe Probabilistic Planning for Human-Robot Interaction using Conformal Risk Control

Cet article présente un cadre de contrôle probabiliste sûr pour l'interaction humain-robot qui combine les fonctions de barrière de contrôle et le contrôle du risque conforme pour fournir des garanties formelles de sécurité, en ajustant dynamiquement les marges de sécurité afin de réduire significativement les collisions tout en maintenant une efficacité de navigation.

Jake Gonzales, Kazuki Mizuta, Karen Leung, Lillian J. Ratliff2026-03-12🤖 cs.AI

Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

Cet article propose de nouvelles techniques d'élicitation d'incertitude basées sur les probabilités imprécises pour permettre aux grands modèles de langage de mieux exprimer et quantifier leur incertitude d'ordre supérieur, comblant ainsi les lacunes des cadres probabilistes classiques face à l'ambiguïté et à l'apprentissage contextuel.

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi2026-03-12🤖 cs.AI

On the Learning Dynamics of Two-layer Linear Networks with Label Noise SGD

Cet article analyse la dynamique d'apprentissage des réseaux linéaires à deux couches entraînés par descente de gradient stochastique avec du bruit d'étiquettes, révélant un comportement en deux phases où le bruit favorise la transition d'un régime « paresseux » vers un régime « riche » pour améliorer la généralisation, une découverte étendue à l'algorithme SAM et validée par des expériences.

Tongcheng Zhang, Zhanpeng Zhou, Mingze Wang, Andi Han, Wei Huang, Taiji Suzuki, Junchi Yan2026-03-12🤖 cs.LG

Effective Dataset Distillation for Spatio-Temporal Forecasting with Bi-dimensional Compression

Cet article présente STemDist, une méthode innovante de distillation de données conçue spécifiquement pour les séries temporelles spatio-temporelles, qui comprime simultanément les dimensions spatiales et temporelles au niveau des clusters pour accélérer l'entraînement des modèles, réduire l'usage mémoire et améliorer la précision des prévisions par rapport aux méthodes existantes.

Taehyung Kwon, Yeonje Choi, Yeongho Kim, Kijung Shin2026-03-12🤖 cs.LG