Heterogeneous Agent Collaborative Reinforcement Learning

Le papier présente HACRL, un nouveau paradigme d'apprentissage par renforcement collaboratif permettant à des agents hétérogènes de partager des trajectoires vérifiées pour une optimisation mutuelle sans coordination lors de l'inférence, et propose l'algorithme HACPO qui améliore significativement les performances de tous les agents tout en réduisant les coûts d'échantillonnage.

Zhixia Zhang, Zixuan Huang, Xin Xia + 7 more2026-03-04🤖 cs.LG

Same Error, Different Function: The Optimizer as an Implicit Prior in Financial Time Series

Cette étude démontre que, dans le contexte de la prévision de la volatilité financière où les modèles sont sous-spécifiés, le choix de l'optimiseur agit comme un biais inductif déterminant qui façonne les fonctions apprises et les conséquences décisionnelles, même lorsque la précision prédictive reste identique.

Federico Vittorio Cortesi, Giuseppe Iannone, Giulia Crippa + 2 more2026-03-04💰 q-fin

Uni-Skill: Building Self-Evolving Skill Repository for Generalizable Robotic Manipulation

Le papier présente Uni-Skill, un cadre unifié qui permet l'évolution automatique d'une bibliothèque de compétences pour la manipulation robotique en intégrant une planification consciente des compétences et un référentiel hiérarchique de démonstrations extraites de vidéos, surpassant ainsi les approches existantes en généralisation zéro-shot et en adaptabilité.

Senwei Xie, Yuntian Zhang, Ruiping Wang + 1 more2026-03-04🤖 cs.LG

Robust Heterogeneous Analog-Digital Computing for Mixture-of-Experts Models with Theoretical Generalization Guarantees

Cet article propose un cadre de calcul hétérogène sans réentraînement qui alloue les experts sensibles au bruit et les modules d'attention à un traitement numérique, tandis que le reste des experts est exécuté sur du matériel de calcul analogique en mémoire, garantissant ainsi la robustesse et l'efficacité des modèles MoE à grande échelle.

Mohammed Nowaz Rabbani Chowdhury, Hsinyu Tsai, Geoffrey W. Burr + 3 more2026-03-04🤖 cs.AI

HomeAdam: Adam and AdamW Algorithms Sometimes Go Home to Obtain Better Provable Generalization

Ce papier propose et analyse théoriquement la famille d'algorithmes HomeAdam(W), qui améliore la généralisation et la convergence des méthodes Adam et AdamW en alternant avec des étapes de descente de gradient stochastique momentum, prouvant ainsi une erreur de généralisation de l'ordre de O(1/N)O(1/N) supérieure à celle des variantes existantes.

Feihu Huang, Guanyi Zhang, Songcan Chen2026-03-04📊 stat

DREAM: Where Visual Understanding Meets Text-to-Image Generation

Le papier présente DREAM, un cadre unifié qui combine l'apprentissage de représentations visuelles et la génération d'images à partir de texte grâce à des techniques innovantes comme le réchauffement du masquage et le décodage aligné sémantiquement, permettant d'obtenir des performances supérieures à la fois en compréhension visuelle et en génération sans nécessiter de réordonnanceurs externes.

Chao Li, Tianhong Li, Sai Vidyaranya Nuthalapati + 8 more2026-03-04🤖 cs.LG