Curse of Dimensionality in Neural Network Optimization

该论文通过 2-Wasserstein 梯度流分析,证明了在使用 Lipschitz 连续激活函数训练浅层神经网络时,优化过程中的种群风险衰减速度受限于 t4rd2rt^{-\frac{4r}{d-2r}}(或针对特定局部 Lipschitz 函数的 t(4+2δ)rd2rt^{-\frac{(4+2\delta)r}{d-2r}}),从而揭示了目标函数光滑度与神经网络优化中维度灾难之间的内在联系。

Sanghoon Na, Haizhao Yang2026-03-06🔢 math

Kernel Based Maximum Entropy Inverse Reinforcement Learning for Mean-Field Games

本文提出了一种基于核函数的最大因果熵逆强化学习方法,用于在无限时域平稳平均场博弈中从专家演示推断非线性奖励函数,并通过证明对数似然目标的平滑性建立了理论一致性,同时在有限时域非平稳设定下提出了基于凸对偶的替代算法,显著提升了复杂场景下的策略恢复精度。

Berkay Anahtarci, Can Deha Kariksiz, Naci Saldi2026-03-06🔢 math

A Proximal Stochastic Gradient Method with Adaptive Step Size and Variance Reduction for Convex Composite Optimization

本文提出了一种结合方差缩减技术与自适应步长策略的随机梯度算法(PSGA),用于求解由光滑与非光滑凸函数组成的复合优化问题,并证明了该算法在 Lipschitz 连续条件下的强收敛性、梯度估计误差的收敛性以及 O(1/k)O(\sqrt{1/k}) 的收敛速率,且通过逻辑回归和 Lasso 回归实验验证了其有效性。

Changjie Fang, Hao Yang, Shenglan Chen2026-03-06🔢 math

Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

本文提出了 Deep FlexQP,这是一种基于深度展开的加速非线性规划求解器,它通过引入1\ell_1弹性松弛确保在可行与不可行约束下均能收敛,并利用结合拉格朗日乘子的归一化损失函数及 PAC-Bayes 泛化界,在轨迹优化和安全过滤等任务中显著提升了求解速度与成功率。

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math