Kernel Based Maximum Entropy Inverse Reinforcement Learning for Mean-Field Games

Este trabajo propone un método de aprendizaje inverso de refuerzo basado en entropía máxima y espacios de Hilbert de núcleo reproductor (RKHS) para juegos de campo medio, que permite inferir funciones de recompensa no lineales en horizontes infinitos y finitos, superando las limitaciones de los enfoques lineales existentes y demostrando una recuperación de políticas significativamente más precisa en escenarios de tráfico.

Berkay Anahtarci, Can Deha Kariksiz, Naci Saldi2026-03-06🔢 math

Inertial accelerated primal-dual algorithms for non-smooth convex optimization problems with linear equality constraints

Este artículo presenta un algoritmo primal-dual acelerado por inercia, derivado de un sistema diferencial de segundo orden con escalado temporal, que logra tasas de convergencia rápidas para la brecha primal-dual, la violación de factibilidad y el residuo objetivo en problemas de optimización convexa no suave con restricciones de igualdad lineales.

Huan Zhang, Xiangkai Sun, Shengjie Li + 1 more2026-03-06🔢 math

Bounds for the Permutation Flowshop Scheduling Problem: New Framework and Theoretical Insights

Este trabajo presenta un nuevo marco teórico basado en una formulación matricial para derivar cotas superiores e inferiores del problema de flujo de trabajo de permutación, logrando mejoras significativas en las cotas de la mayoría de las instancias de los conjuntos de datos Taillard y VRF, además de aportar avances teóricos sobre la calidad de las cotas inferiores y la relación de aproximación asintótica.

J. A. Alejandro-Soto, Carlos Segura, Joel Antonio Trejo-Sanchez2026-03-06🔢 math

An Accelerated Primal Dual Algorithm with Backtracking for Decentralized Constrained Optimization

Este artículo presenta D-APDB, un algoritmo distribuido acelerado de primal-dual con retroalimentación que resuelve problemas de optimización convexa con restricciones privadas en redes descentralizadas sin requerir conocimiento previo de las constantes de Lipschitz, logrando una tasa de convergencia óptima de O(1/K)\mathcal{O}(1/K).

Qiushui Xu, Necdet Serhat Aybat, Mert Gürbüzbalaban2026-03-06🔢 math

How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Este artículo demuestra que, en redes neuronales ReLU de alta dimensión con datos aleatorios, el sesgo implícito del descenso de gradiente aproxima la solución de mínima norma L2 con alta probabilidad, presentando una brecha del orden de Θ(n/d)\Theta(\sqrt{n/d}) entre el número de ejemplos y la dimensión de las características.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math