Robust Post-Training for Generative Recommenders: Why Exponential Reward-Weighted SFT Outperforms RLHF

该论文提出并理论证明了指数奖励加权监督微调(Exponential Reward-Weighted SFT)作为一种无需奖励模型、无需倾向性评分且完全离线的后训练方法,在抗奖励欺骗、可扩展性及理论保证方面均优于传统的强化学习人类反馈(RLHF)方法,能有效解决生成式推荐系统的对齐难题。

Keertana Chidambaram, Sanath Kumar Krishnamurthy, Qiuling Xu, Ko-Jen Hsiao, Moumita Bhattacharya2026-03-12🤖 cs.LG

Federated Active Learning Under Extreme Non-IID and Global Class Imbalance

本文针对联邦主动学习在极端非独立同分布和全局类别不平衡场景下的性能退化问题,提出了一种名为 FairFAL 的自适应框架,通过轻量级预测差异自适应选择查询模型、利用全局特征进行原型引导的伪标签生成以及两阶段不确定性 - 多样性平衡采样策略,显著提升了长尾和非独立同分布设置下的最终性能。

Chen-Chen Zong, Sheng-Jun Huang2026-03-12🤖 cs.LG

HEAL: Hindsight Entropy-Assisted Learning for Reasoning Distillation

本文提出了名为 HEAL 的无强化学习框架,通过结合引导熵辅助修复、困惑度 - 不确定性比率估计及渐进式答案引导课程演化三大核心模块,有效突破了传统知识蒸馏中教师模型能力上限的制约,显著提升了小型模型从大型推理模型中学习复杂推理能力的水准。

Wenjing Zhang, Jiangze Yan, Jieyun Huang, Yi Shen, Shuming Shi, Ping Chen, Ning Wang, Zhaoxiang Liu, Kai Wang, Shiguo Lian2026-03-12🤖 cs.AI