In-Run Data Shapley for Adam Optimizer

该论文针对现有“运行中”数据 Shapley 方法因依赖 SGD 线性假设而无法适配 Adam 优化器的局限,提出了一种名为"Adam-Aware In-Run Data Shapley"的新方法,通过引入固定状态假设下的效用重定义及线性化幽灵近似技术,在保持接近标准训练吞吐量的同时,实现了对 Adam 优化器下数据贡献的高保真度(相关系数>0.99)且可扩展的精准评估。

Meng Ding, Zeqing Zhang, Di Wang, Lijie Hu2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

该论文提出了受人类学习过程启发的 T2T(由厚变薄)动态奖励框架,通过在不正确尝试时鼓励“增厚”以扩展搜索空间、在正确后转为“变薄”以抑制冗余,有效解决了强化学习中的熵崩溃与过度冗长问题,显著提升了大语言模型在数学推理任务上的性能。

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

该论文提出了一种名为径向 Müntz-Szász 网络(RMN)的新型神经网络架构,通过引入可学习的径向幂次基函数和极限稳定的对数原函数,有效解决了现有坐标可分离架构难以建模径向奇异场的问题,并在多项基准测试中以极少的参数量实现了远超传统 MLP 和 SIREN 的精度。

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

本文提出了 SDFed 框架,通过允许客户端学习可变长度本地提示并引入子空间细化与散度控制策略,有效解决了联邦提示学习中因数据与资源异构导致的本地 - 全局知识冲突问题,从而在隐私敏感的多方场景中实现了更优的模型性能与鲁棒性。

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Mean Flow Policy with Instantaneous Velocity Constraint for One-step Action Generation

本文提出了一种名为均值流策略(MVP)的新型生成策略,通过引入瞬时速度约束(IVC)作为关键边界条件,在确保高表达性的同时实现了单步动作生成,并在多个机器人操作任务中取得了优于现有流基策略的采样速度与成功率。

Guojian Zhan, Letian Tao, Pengcheng Wang, Yixiao Wang, Yiheng Li, Yuxin Chen, Hongyang Li, Masayoshi Tomizuka, Shengbo Eben Li2026-03-10🤖 cs.LG

Accelerated Predictive Coding Networks via Direct Kolen-Pollack Feedback Alignment

本文提出了直接科尔 - 波拉赫预测编码(DKP-PC)算法,通过引入从输出层到所有隐藏层的可学习直接反馈连接,解决了传统预测编码中误差信号传播延迟和指数级衰减的问题,将误差传播的时间复杂度从O(L)O(L)降低至O(1)O(1),同时保持了更新的局部性并提升了性能与效率。

Davide Casnici, Martin Lefebvre, Justin Dauwels, Charlotte Frenkel2026-03-10🤖 cs.LG