Good Reasoning Makes Good Demonstrations: Implicit Reasoning Quality Supervision via In-Context Reinforcement Learning

该论文提出了一种名为“上下文强化学习验证(In-Context RLVR)”的新方法,通过利用模型自身的上下文学习能力生成“证据增益”信号来隐式地根据推理质量对奖励进行重加权,从而在无需外部评估器的情况下解决传统 RLVR 可能强化低质量推理路径的问题,显著提升了数学基准测试中的准确率与推理质量。

Tiehua Mei, Minxuan Lv, Leiyu Pan, Zhenpeng Su, Hongru Hou, Hengrui Chen, Ao Xu, Deqing Yang2026-03-11🤖 cs.LG

GAST: Gradient-aligned Sparse Tuning of Large Language Models with Data-layer Selection

本文提出了梯度对齐稀疏微调(GAST)方法,通过统一优化策略在数据层和模型层两个维度上自适应地选择最具影响力的数据点与关键层,有效解决了现有参数高效微调方法忽视数据对不同层贡献差异的问题,并在实验中展现出优于基线的性能。

Kai Yao, Zhenghan Song, Kaixin Wu, Mingjie Zhong, Danzhao Cheng, Zhaorui Tan, Yixin Ji, Penglei Gao2026-03-11🤖 cs.LG

CarbonBench: A Global Benchmark for Upscaling of Carbon Fluxes Using Zero-Shot Learning

本文介绍了 CarbonBench,这是首个旨在通过零样本空间迁移学习评估全球碳通量上模型性能的标准基准,它利用来自全球 567 个通量塔站的 130 多万条观测数据,提供了分层评估协议、统一特征集及多种基线模型,以推动机器学习与地球系统科学的融合及下一代气候建模的发展。

Aleksei Rozanov, Arvind Renganathan, Yimeng Zhang, Vipin Kumar2026-03-11🤖 cs.LG

SignalMC-MED: A Multimodal Benchmark for Evaluating Biosignal Foundation Models on Single-Lead ECG and PPG

本文提出了名为 SignalMC-MED 的多模态基准,利用包含 22,256 次就诊的同步单导联 ECG 和 PPG 数据评估生物信号基础模型,发现领域专用模型优于通用模型、多模态融合优于单模态输入,并揭示了长信号段、小模型及手工特征在特定场景下的优势。

Fredrik K. Gustafsson, Xiao Gu, Mattia Carletti, Patitapaban Palo, David W. Eyre, David A. Clifton2026-03-11🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

该论文通过引入具有层可组合性的均值归一化算子范数,将 AdamW 和 Muon 等优化器统一为矩阵算子范数下的最速下降法,从而提出了能实现宽度无关平滑度保证及跨宽度超参数迁移的 MOGA 优化器,并在 GPT-2 和 LLaMA 的大规模预训练中展现出比 Muon 更优的效率与稳定性。

Ruihan Xu, Jiajin Li, Yiping Lu2026-03-11🤖 cs.LG

Think Before You Lie: How Reasoning Improves Honesty

该论文通过新颖的道德权衡数据集发现,与人类不同,推理过程能显著提升大语言模型的诚实度,其根本原因在于欺骗性回答在表征空间中处于亚稳态,而推理生成的思维链通过遍历该空间将模型推向更稳定的诚实默认状态。

Ann Yuan, Asma Ghandeharioun, Carter Blum, Alicia Machado, Jessica Hoffmann, Daphne Ippolito, Martin Wattenberg, Lucas Dixon, Katja Filippova2026-03-11🤖 cs.AI