Data-driven robust Markov decision processes on Borel spaces: performance guarantees via an axiomatic approach

本文提出了一种基于经验分布和距离函数子水平集构建模糊集的鲁棒马尔可夫决策过程(RMDP)框架,通过连接弱收敛与距离收敛,证明了该方法在有限样本下能提供高概率的出样本性能上界及收敛速率,并指出相比之下传统的经验 MDP 无法保证此类有限样本性能。

Sivaramakrishnan RamaniWed, 11 Ma🤖 cs.LG

Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

该论文通过康特 - 阿什比好调节器定理,验证了因果不变超图基底中的持久观察者具备内部模型,进而推导出自然梯度下降作为唯一学习规则,并建立了沃尔夫拉姆超图物理与万丘林神经宇宙学之间的联系,同时指出了其关于收敛参数预测的模型依赖性。

Max ZhuravlevWed, 11 Ma🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

该论文提出了一种基于最优传输的分布无关转导泛化界,通过计算编码特征分布间的 Wasserstein 距离,不仅提供了高效可计算且与图节点分类实证泛化性能强相关的理论界,还揭示了 GNN 聚合过程如何通过深度依赖的表征分布变换来解释深度与泛化误差之间的非单调关系。

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo KimWed, 11 Ma🤖 cs.LG

Robust Regularized Policy Iteration under Transition Uncertainty

本文提出了一种名为鲁棒正则化策略迭代(RRPI)的新方法,通过将离线强化学习建模为在转移不确定性下的鲁棒策略优化问题,利用 KL 正则化将不可解的双层优化转化为可处理的单目标问题,从而在 D4RL 基准测试中实现了优于现有基线的性能并有效避免了分布外状态下的不可靠动作。

Hongqiang Lin, Zhenghui Fu, Weihao Tang, Pengfei Wang, Yiding Sun, Qixian Huang, Dongxu ZhangWed, 11 Ma🤖 cs.AI

What Do We Care About in Bandits with Noncompliance? BRACE: Bandits with Recommendations, Abstention, and Certified Effects

本文提出了 BRACE 算法,旨在解决带有不合规(Noncompliance)的 Bandit 问题中推荐福利与直接控制治疗目标不一致的矛盾,通过参数化相位倍增策略实现 IV 逆运算的矩阵认证与诚实结构区间估计,从而在保障统计有效性的同时,根据上下文同质性等条件灵活识别最优推荐或治疗策略。

Nicolás Della PennaWed, 11 Ma🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

该论文通过引入具有层可组合性的均值归一化算子范数,将 AdamW 和 Muon 等优化器统一为矩阵算子范数下的最速下降法,从而提出了能实现宽度无关平滑度保证及跨宽度超参数迁移的 MOGA 优化器,并在 GPT-2 和 LLaMA 的大规模预训练中展现出比 Muon 更优的效率与稳定性。

Ruihan Xu, Jiajin Li, Yiping LuWed, 11 Ma🤖 cs.LG