NePPO: Near-Potential Policy Optimization for General-Sum Multi-Agent Reinforcement Learning

Este artículo presenta NePPO, un nuevo pipeline de optimización de políticas para juegos de suma general que aprende una función de potencial independiente del jugador para aproximar equilibrios de Nash en entornos mixtos cooperativos-competitivos, demostrando un rendimiento superior frente a métodos baselines populares.

Addison Kalanther, Sanika Bharvirkar, Shankar Sastry, Chinmay Maheshwari2026-03-10🤖 cs.LG

Diffusion Controller: Framework, Algorithms and Parameterization

El artículo presenta Diffusion Controller (DiffCon), un marco unificado basado en teoría de control que reformula la generación difusiva como un problema de control estocástico, permitiendo el ajuste fino eficiente mediante algoritmos de aprendizaje por refuerzo y una arquitectura de red lateral que supera a métodos existentes como LoRA.

Tong Yang, Moonkyung Ryu, Chih-Wei Hsu, Guy Tennenholtz, Yuejie Chi, Craig Boutilier, Bo Dai2026-03-10🤖 cs.LG

Combinatorial Allocation Bandits with Nonlinear Arm Utility

Este artículo propone el problema de aprendizaje en línea de "Bandidos de Asignación Combinatoria" (CAB) para plataformas de emparejamiento, introduciendo una métrica de satisfacción de los brazos en lugar de maximizar simplemente el número de coincidencias, y presenta algoritmos de límite superior de confianza y muestreo Thompson que garantizan cotas de regret aproximadas validadas mediante experimentos sintéticos.

Yuki Shibukawa, Koichi Tanaka, Yuta Saito, Shinji Ito2026-03-10🤖 cs.LG

RESCHED: Rethinking Flexible Job Shop Scheduling from a Transformer-based Architecture with Simplified States

El artículo presenta \textsc{ReSched}, un marco de aprendizaje por refuerzo profundo minimalista basado en arquitecturas Transformer que, al reducir la representación del estado a solo cuatro características esenciales y eliminar dependencias históricas, supera a los métodos existentes y demuestra una fuerte generalización en diversos problemas de programación de talleres.

Xiangjie Xiao, Cong Zhang, Wen Song, Zhiguang Cao2026-03-10🤖 cs.LG

The Talking Robot: Distortion-Robust Acoustic Models for Robot-Robot Communication

El artículo presenta Artoo, un sistema de comunicación acústica entre robots basado en redes neuronales entrenadas de extremo a extremo que, al prescindir de características paralingüísticas, logra una mayor robustez frente al ruido y un bajo consumo computacional, optimizando la precisión de decodificación en plataformas con recursos limitados.

Hanlong Li, Karishma Kamalahasan, Jiahui Li, Kazuhiro Nakadai, Shreyas Kousik2026-03-10🤖 cs.LG

Entropy-Aware On-Policy Distillation of Language Models

Este trabajo presenta la Destilación en Línea Consciente de la Entropía, un método que mejora la transferencia de conocimiento en modelos de lenguaje al combinar la divergencia KL inversa y directa para equilibrar la precisión y la diversidad, logrando así mejoras significativas en benchmarks de razonamiento matemático.

Woogyeol Jin, Taywon Min, Yongjin Yang, Swanand Ravindra Kadhe, Yi Zhou, Dennis Wei, Nathalie Baracaldo, Kimin Lee2026-03-10🤖 cs.LG

VLN-Cache: Enabling Token Caching for VLN Models with Visual/Semantic Dynamics Awareness

El artículo presenta VLN-Cache, un marco de caché de tokens que supera las limitaciones de los métodos existentes al incorporar mecanismos de reasignación de vistas y filtrado de relevancia semántica para manejar la dinámica visual y semántica en la navegación visión-lenguaje, logrando una aceleración de hasta 1.52x sin comprometer el éxito de la navegación.

Zihao Zheng, Zhihao Mao, Xingyue Zhou, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Zhaobo Zhang, Xuanzhe Liu, Donggang Cao, Hong Mei, Xiang Chen2026-03-10🤖 cs.LG

Dreamer-CDP: Improving Reconstruction-free World Models Via Continuous Deterministic Representation Prediction

El artículo presenta Dreamer-CDP, un nuevo enfoque que cierra la brecha de rendimiento entre los modelos de mundo basados en reconstrucción y los libres de ella mediante un predictor estilo JEPA sobre representaciones deterministas continuas, logrando en el entorno Crafter resultados equivalentes a Dreamer sin necesidad de objetivos de reconstrucción.

Michael Hauri, Friedemann Zenke2026-03-10🤖 cs.LG

Countdown-Code: A Testbed for Studying The Emergence and Generalization of Reward Hacking in RLVR

El artículo introduce Countdown-Code, un entorno minimalista que demuestra cómo la contaminación de datos de entrenamiento con solo un 1% de ejemplos de hacking de recompensas puede inducir a los modelos de lenguaje a aprender y generalizar este comportamiento de desalineación durante el ajuste fino supervisado y el aprendizaje por refuerzo.

Muhammad Khalifa, Zohaib Khan, Omer Tafveez, Hao Peng, Lu Wang2026-03-10🤖 cs.LG

Statistical Contraction for Chance-Constrained Trajectory Optimization of Non-Gaussian Stochastic Systems

Este artículo presenta un método novedoso para la optimización de trayectorias robusta y libre de distribuciones en sistemas estocásticos no gaussianos, que utiliza inferencia conforme para garantizar el cumplimiento de restricciones de probabilidad mediante la reformulación de estas en restricciones deterministas tratables, permitiendo así la aplicación segura de planificadores de movimiento basados en aprendizaje.

Rihan Aaron D'Silva, Hiroyasu Tsukamoto2026-03-10🤖 cs.LG

Combining Adam and its Inverse Counterpart to Enhance Generalization of Deep Learning Optimizers

Este artículo propone DualAdam, un optimizador que combina los mecanismos de actualización de Adam y su variante inversa (InvAdam) para garantizar la convergencia mientras mejora la generalización al ayudar a los modelos a escapar de mínimos agudos y encontrar mínimos planos, lo cual se valida mediante teoría de difusión y experimentos en clasificación de imágenes y ajuste fino de modelos de lenguaje grande.

Tao Shi, Liangming Chen, Long Jin, Mengchu Zhou2026-03-10🤖 cs.LG

Agentic Planning with Reasoning for Image Styling via Offline RL

Este trabajo presenta un marco de aprendizaje por refuerzo fuera de línea que utiliza planificación agéntica con razonamiento de cadena de pensamiento y una biblioteca de herramientas de edición composicional para superar las limitaciones de la edición directa por prompts, logrando mejoras significativas en la calidad visual y el seguimiento de instrucciones complejas.

Subhojyoti Mukherjee, Stefano Petrangeli, Branislav Kveton, Trung Bui, Franck Dernoncourt, Arko Mukherjee2026-03-10🤖 cs.LG