Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

该论文提出了一种结合任务特定批归一化与分布外检测的新型持续学习框架,通过为每个任务头引入“未知”类来预测任务 ID,从而在无需访问旧数据的情况下有效平衡了类增量学习中的可塑性与稳定性,并在多个医学及自然图像数据集上取得了最先进性能。

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Particle Trajectory Representation Learning with Masked Point Modeling

本文提出了基于掩码点建模的自监督学习框架 PoLAr-MAE,通过利用未标记的液氩时间投影 chamber(LArTPC)数据学习物理意义明确的轨迹表示,仅需极少量标注样本即可实现媲美超大规模监督训练的性能,并释放了包含 100 万个事件的大规模数据集 PILArNet-M 以推动该领域基础模型的发展。

Sam Young, Yeon-jae Jwa, Kazuhiro Terao2026-03-12⚛️ hep-ex

Are Deep Speech Denoising Models Robust to Adversarial Noise?

该论文指出,尽管深度语音降噪(DNS)模型被广泛应用于高安全场景,但通过添加人耳难以察觉的对抗性噪声即可使其输出变为无法理解的乱码,且经专家验证和主观测试证实了攻击的有效性与隐蔽性,从而强调了在将其用于安全关键应用前必须采取实际防御措施。

Will Schwarzer, Neel Chaudhari, Philip S. Thomas, Andrea Fanelli, Xiaoyu Liu2026-03-12⚡ eess

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

本文提出了一种名为 SwitchMT 的新方法,通过结合具有主动树突和决斗结构的深度脉冲 Q 网络以及基于奖励与网络内部动力学的自适应任务切换策略,有效解决了资源受限自主代理在多任务强化学习中的任务干扰问题,实现了无需增加网络复杂度的可扩展高效多任务学习。

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

该论文通过对 2022 年至 2025 年初的 25,000 篇论文进行数据驱动的半自动审查,系统梳理了大语言模型局限性(LLLMs)的研究趋势,发现相关研究占比显著增长,其中推理能力仍是核心关注点,而 arXiv 数据集的研究热点正逐渐向安全风险、对齐、幻觉、知识编辑及多模态方向转移。

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

该论文提出了一种基于一致性的测试时溯因推理框架,通过逻辑编程将多个预训练模型的预测及其错误检测规则编码,利用整数规划或启发式搜索算法在满足逻辑一致性约束的前提下最大化预测覆盖率,从而在分布偏移的新环境中有效缓解单一模型性能下降并提升整体精度与召回率。

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI