Minor First, Major Last: A Depth-Induced Implicit Bias of Sharpness-Aware Minimization

该论文揭示了在深度线性对角网络中,Sharpness-Aware Minimization (SAM) 会因深度增加而产生显著的隐式偏差,特别是2\ell_2-SAM 会表现出“顺序特征放大”现象,即模型在训练初期依赖次要特征并逐渐转向主要特征,从而证明了仅依靠无限时间隐式偏差分析不足以全面理解 SAM 的有限时间动态。

Chaewon Moon, Dongkuk Si, Chulhee Yun2026-03-10🤖 cs.LG

Deconstructing Multimodal Mathematical Reasoning: Towards a Unified Perception-Alignment-Reasoning Paradigm

该论文针对多模态数学推理中存在的图表误读、符号对齐困难及推理不一致等挑战,通过系统回答“提取什么、如何对齐、怎样推理、如何评估”四个核心问题,提出了感知 - 对齐 - 推理的统一范式,并梳理了该领域的研究现状、开放挑战与未来方向。

Tianyu Yang, Sihong Wu, Yilun Zhao, Zhenwen Liang, Lisen Dai, Chen Zhao, Minhao Cheng, Arman Cohan, Xiangliang Zhang2026-03-10💻 cs

Human-AI Divergence in Ego-centric Action Recognition under Spatial and Spatiotemporal Manipulations

本文通过大规模人机对比研究,利用最小可识别裁剪(MIRCs)和 Epic ReduAct 数据集,揭示了人类在 egocentric 动作识别中依赖关键语义线索(如手 - 物交互)且对空间缩减敏感,而 AI 模型则更依赖上下文及中低级特征、对时空扰动表现出不同鲁棒性的根本差异。

Sadegh Rahmaniboldaji, Filip Rybansky, Quoc C. Vuong, Anya C. Hurlbert, Frank Guerin, Andrew Gilbert2026-03-10💻 cs

EndoSERV: A Vision-based Endoluminal Robot Navigation System

本文提出了一种名为 EndoSERV 的新型视觉内窥镜机器人导航系统,该系统通过结合“段对结构”与“实对虚”映射技术,利用离线预训练和在线适应机制,有效解决了在组织变形、伪影及缺乏地标等挑战下内窥镜机器人的长程复杂路径定位难题,且无需真实位姿标签即可实现高精度导航。

Junyang Wu, Fangfang Xie, Minghui Zhang, Hanxiao Zhang, Jiayuan Sun, Yun Gu, Guang-Zhong Yang2026-03-10💻 cs

Electrocardiogram Classification with Transformers Using Koopman and Wavelet Features

该论文提出了一种结合 Koopman 算子(通过 EDMD 近似)与波变换特征及 Transformer 架构的心电图分类方法,研究发现虽然简单的特征混合未带来提升,但通过优化径向基函数字典构建的 Koopman 特征在四分类任务中表现优于波变换基线及混合系统,有效展示了将动力系统理论融入时间序列分类的潜力。

Sucheta Ghosh, Zahra Monfared2026-03-10🤖 cs.LG

A Hierarchical Error-Corrective Graph Framework for Autonomous Agents with LLM-Based Action Generation

本文提出了一种名为 HECG 的层级纠错图框架,通过多維可迁移策略(MDTS)、结构化错误矩阵分类(EMC)和因果上下文图检索(CCGR)三大核心创新,实现了大语言模型驱动的智能体在复杂多步任务中更精准的策略选择、更精细的错误归因分析以及更可靠的上下文自适应执行。

Cong Cao, Jingyao Zhang, Kun Tong2026-03-10💻 cs

Revealing Behavioral Plasticity in Large Language Models: A Token-Conditional Perspective

该论文揭示了大语言模型具有类似变色龙的内在行为可塑性,并提出了一种名为 Token-Conditioned Reinforcement Learning (ToCoRL) 的框架,通过利用基于 Token 前缀的条件生成与强化学习,将推理时的行为适应转化为稳定的可学习模式,从而在不损害模型能力的情况下实现精确的行为控制(例如让擅长推理的模型也能高效回答事实性问题)。

Liyuan Mao, Le Yu, Jing Zhou, Chujie Zheng, Bowen Yu, Chang Gao, Shixuan Liu, An Yang, Weinan Zhang, JunYang Lin2026-03-10🤖 cs.LG