Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

本文提出了名为 Emotion Collider (EC-Net) 的双曲超图框架,该框架利用庞加莱球嵌入表示模态层次结构,并通过双向消息传递、双曲空间对比学习及自适应超边构建,在噪声或部分模态缺失的情况下显著提升了多模态情感识别的鲁棒性与准确率。

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon FongTue, 10 Ma🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

该论文提出了首个针对条件性生物医学问答的基准 CondMedQA 以及一种名为条件门控推理(CGR)的新框架,通过构建条件感知知识图谱并基于查询条件动态激活或剪枝推理路径,有效解决了现有系统忽视患者特异性因素(如并发症和禁忌症)导致推理不准确的问题。

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei HanTue, 10 Ma💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

本文介绍了基于 ModernBERT 架构、支持 35 种语言及代码的 MrBERT 模型系列,该系列通过词汇、领域和维度适配(含 Matryoshka 表示学习)在加泰罗尼亚语、西班牙语及生物医学、法律等专业领域实现了最先进的性能,同时显著降低了推理与存储成本。

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta VillegasTue, 10 Ma🤖 cs.LG

ARC-AGI-2 Technical Report

该论文提出了一种结合神经推理、结构感知先验与在线任务适应的 Transformer 系统,通过紧凑的任务编码、基于群对称性的数据增强、测试时训练(TTT)以及对称性感知解码,显著提升了 ARC 任务的泛化能力并缩小了与人类水平的差距。

Wallyson Lemes de Oliveira, Mekhron Bobokhonov, Matteo Caorsi, Aldo Podestà, Gabriele Beltramo, Luca Crosato, Matteo Bonotto, Federica Cecchetto, Hadrien Espic, Dan Titus Salajan, Stefan Taga, Luca Pana, Joe CarthyTue, 10 Ma💬 cs.CL

How Attention Sinks Emerge in Large Language Models: An Interpretability Perspective

该论文从可解释性视角揭示了大语言模型中“注意力汇聚”现象的成因,提出了一种不依赖语义信息的"P0 汇聚电路”机制,解释了模型如何在输入序列首个令牌处形成注意力汇聚,并发现该机制在训练早期出现且随训练进程逐渐集中,可作为预训练收敛状态的潜在指标。

Runyu Peng, Ruixiao Li, Mingshu Chen, Yunhua Zhou, Qipeng Guo, Xipeng QiuTue, 10 Ma🤖 cs.LG

A Coin Flip for Safety: LLM Judges Fail to Reliably Measure Adversarial Robustness

该论文通过大规模人工验证揭示,现有“LLM 作为裁判”的框架因无法应对红队测试中的分布偏移,导致其评估结果往往退化为随机猜测,并指出许多攻击实则是利用了裁判模型的缺陷而非真正产生了有害内容,为此作者提出了更可靠的基准测试与裁判压力测试数据集以改进评估体系。

Leo Schwinn, Moritz Ladenburger, Tim Beyer, Mehrnaz Mofakhami, Gauthier Gidel, Stephan GünnemannTue, 10 Ma💬 cs.CL

Know When You're Wrong: Aligning Confidence with Correctness for LLM Error Detection

该论文提出了一种基于输出锚点概率的归一化置信度评分框架,用于在无需外部验证的情况下检测大语言模型的错误与幻觉,并通过理论分析与实验证实了监督微调能提升置信度校准性而强化学习易导致过度自信,进而提出后强化学习微调方案以恢复模型可靠性,最终实现了在自适应检索增强生成中仅用 58% 的检索操作即可恢复 95% 最大精度增益的高效应用。

Xie Xiaohu, Liu Xiaohu, Yao BenjaminTue, 10 Ma🤖 cs.LG