RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

Le papier présente RL-100, un cadre d'apprentissage par renforcement réel basé sur des politiques visuo-motrices par diffusion qui unifie imitation et renforcement pour atteindre une fiabilité de 100 % sur huit tâches robotiques complexes, surpassant les opérateurs experts et démontrant une robustesse exceptionnelle en déploiement zéro-shot.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe XuWed, 11 Ma🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

Ce papier présente FALCON, une nouvelle approche qui améliore les modèles vision-langage-action en injectant des tokens spatiaux 3D riches, dérivés de modèles de fondation spatiale, directement dans la tête d'action pour combler le fossé de raisonnement spatial et atteindre des performances de pointe sur des tâches simulées et réelles.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

SynHLMA:Synthesizing Hand Language Manipulation for Articulated Object with Discrete Human Object Interaction Representation

L'article présente SynHLMA, un cadre novateur générant des séquences de manipulation manuelle d'objets articulés à partir d'instructions langagières en utilisant une représentation discrète des interactions main-objet et un modèle d'apprentissage aligné sur le langage pour assurer la cohérence fonctionnelle et dynamique.

Wang zhi, Yuyan Liu, Liu Liu, Li Zhang, Ruixuan Lu, Dan GuoWed, 11 Ma🤖 cs.AI

GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation

Le papier propose GraphKeeper, une méthode novatrice pour l'apprentissage incrémental de domaine sur les graphes qui résout l'oubli catastrophique grâce à la disentanglement et la préservation des connaissances, surpassant les approches existantes tout en s'intégrant à divers modèles de base graphiques.

Zihao Guo, Qingyun Sun, Ziwei Zhang, Haonan Yuan, Huiping Zhuang, Xingcheng Fu, Jianxin LiWed, 11 Ma🤖 cs.AI

Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning

Ce papier propose LTSV, une méthode légère d'évaluation de la qualité des données temporelles pour les modèles fondationnels, qui utilise un ajustement fin en contexte et une agrégation de blocs temporels pour estimer efficacement la contribution des échantillons tout en préservant les dépendances temporelles.

Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong NgWed, 11 Ma🤖 cs.AI

Mitigating Long-Tail Bias in HOI Detection via Adaptive Diversity Cache

Cet article propose le module Adaptive Diversity Cache (ADC), une méthode sans entraînement et plug-and-play qui atténue le biais à longue traîne dans la détection d'interactions humain-objet en accumulant des représentations de caractéristiques diversifiées et en allouant dynamiquement la capacité des caches pour améliorer la détection des catégories rares.

Yuqiu Jiang, Xiaozhen Qiao, Yifan Chen, Ye Zheng, Zhe Sun, Xuelong LiWed, 11 Ma🤖 cs.AI

When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models

Ce papier présente UPA-RFAS, un cadre unifié qui génère des patches adversariaux universels et transférables capables de compromettre divers modèles Vision-Language-Action (VLA) dans des scénarios boîte noire et des transitions simulation-réalité en exploitant des mécanismes spécifiques aux caractéristiques, à l'attention et à la sémantique.

Hui Lu, Yi Yu, Yiming Yang, Chenyu Yi, Qixin Zhang, Bingquan Shen, Alex C. Kot, Xudong JiangWed, 11 Ma🤖 cs.AI

Multi-Agent Reinforcement Learning with Communication-Constrained Priors

Cet article propose un cadre d'apprentissage par renforcement multi-agent généralisé qui utilise des priors contraints par la communication et un estimateur d'information mutuelle dual pour distinguer les messages perdus des messages intacts, afin d'améliorer la robustesse et l'évolutivité des politiques coopératives dans des environnements réels complexes.

Guang Yang, Tianpei Yang, Jingwen Qiao, Yanqing Wu, Jing Huo, Xingguo Chen, Yang GaoWed, 11 Ma🤖 cs.AI

Enhancing Retrieval-Augmented Generation with Entity Linking for Educational Platforms

Cette étude propose ELERAG, une architecture de génération augmentée par la récupération intégrant le lien d'entités et une stratégie de réordonnancement hybride, qui démontre une précision factuelle supérieure aux méthodes de l'état de l'art dans des contextes éducatifs spécialisés en italien, tout en révélant l'importance d'adapter les stratégies au domaine pour éviter les biais de distribution.

Francesco Granata, Francesco Poggi, Misael MongiovìWed, 11 Ma🤖 cs.AI

EMFusion: Conditional Diffusion Framework for Trustworthy Frequency Selective EMF Forecasting in Wireless Networks

Cet article présente EMFusion, un cadre de diffusion conditionnelle probabiliste qui améliore la fiabilité des prévisions de champs électromagnétiques sélectifs en fréquence pour les réseaux sans fil en intégrant des facteurs contextuels, en fournissant des estimations d'incertitude explicites et en surpassant les modèles de base existants.

Zijiang Yan, Yixiang Huang, Jianhua Pei, Hina Tabassum, Luca ChiaraviglioWed, 11 Ma🤖 cs.AI

Small Language Models for Efficient Agentic Tool Calling: Outperforming Large Models with Targeted Fine-tuning

Cette étude démontre qu'un petit modèle de langage (SLM) de 350 millions de paramètres, finement ajusté avec une seule époque, surpasse significativement les grands modèles (LLM) et les approches basées sur le raisonnement en chaîne (CoT) dans les tâches d'appel d'outils, atteignant un taux de réussite de 77,55 % sur ToolBench et offrant ainsi une solution rentable pour l'intégration de l'IA générative en entreprise.

Polaris Jhandi, Owais Kazi, Shreyas Subramanian, Neel SendasWed, 11 Ma🤖 cs.AI

Reinforcement Learning for Self-Improving Agent with Skill Library

Ce papier propose SAGE, un cadre d'apprentissage par renforcement innovant qui améliore l'autonomie des agents LLM en intégrant une bibliothèque de compétences via des déroulements séquentiels et une récompense adaptée, permettant d'atteindre de meilleures performances et une efficacité accrue sur la plateforme AppWorld.

Jiongxiao Wang, Qiaojing Yan, Yawei Wang, Yijun Tian, Soumya Smruti Mishra, Zhichao Xu, Megha Gandhi, Panpan Xu, Lin Lee CheongWed, 11 Ma🤖 cs.AI

CRANE: Causal Relevance Analysis of Language-Specific Neurons in Multilingual Large Language Models

Le papier propose CRANE, un cadre d'analyse basé sur la pertinence fonctionnelle qui identifie avec plus de précision les neurones spécifiques à chaque langue dans les grands modèles multilingues en utilisant des interventions ciblées, révélant ainsi des spécialisations sélectives mais non exclusives que les méthodes traditionnelles basées sur l'activation ne parviennent pas à distinguer.

Yifan Le, Yunliang LiWed, 11 Ma🤖 cs.AI