Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection
本文提出了名为 Emotion Collider (EC-Net) 的双曲超图框架,该框架利用庞加莱球嵌入表示模态层次结构,并通过双向消息传递、双曲空间对比学习及自适应超边构建,在噪声或部分模态缺失的情况下显著提升了多模态情感识别的鲁棒性与准确率。
1071 篇论文
本文提出了名为 Emotion Collider (EC-Net) 的双曲超图框架,该框架利用庞加莱球嵌入表示模态层次结构,并通过双向消息传递、双曲空间对比学习及自适应超边构建,在噪声或部分模态缺失的情况下显著提升了多模态情感识别的鲁棒性与准确率。
本文提出了 ModalImmune 框架,通过训练过程中可控地坍缩特定模态信息并结合自适应正则化、信息增益引导控制及曲率感知梯度掩蔽等技术,使多模态模型在面对输入通道丢失或损坏时仍能保持鲁棒性、收敛稳定性及重建能力。
该论文提出了首个针对条件性生物医学问答的基准 CondMedQA 以及一种名为条件门控推理(CGR)的新框架,通过构建条件感知知识图谱并基于查询条件动态激活或剪枝推理路径,有效解决了现有系统忽视患者特异性因素(如并发症和禁忌症)导致推理不准确的问题。
本文介绍了基于 ModernBERT 架构、支持 35 种语言及代码的 MrBERT 模型系列,该系列通过词汇、领域和维度适配(含 Matryoshka 表示学习)在加泰罗尼亚语、西班牙语及生物医学、法律等专业领域实现了最先进的性能,同时显著降低了推理与存储成本。
本文提出了 CeRA(容量增强型秩适应)方法,通过引入 SiLU 门控和结构式丢弃在权重层面实现流形扩展,从而突破低秩适应(LoRA)在复杂推理任务中因线性约束导致的性能瓶颈,以显著更低的秩实现了超越高秩 LoRA 的谱效率与推理能力。
本文提出了 KVSlimmer,一种基于谱能量分布理论构建的无梯度高效算法,通过精确的 Hessian 信息推导闭式解,在显著降低大语言模型 KV 缓存内存与延迟的同时,实现了优于现有最先进方法的压缩性能与推理效果。
该论文提出了一种共形预测框架,通过针对不同临床文档结构(如结构化 FDA 标签与自由文本放射报告)中大语言模型置信度校准偏差的异质性进行自适应调整,在确保医疗实体提取达到 90% 以上覆盖率的同时实现了可控的拒绝率,从而为临床安全部署提供了保障。
该论文提出了一种名为 CyclicJudge 的轮询分配策略,通过方差分解分析证明其在固定调用预算下能以最经济的方式(与单法官评估成本相当)精准消除大模型评估中的系统性法官偏差,从而显著提升 MT-Bench 和 MindEval 等基准测试的排名可靠性。
本文提出了 PrivMedChat,这是一个面向医疗对话系统的端到端差分隐私强化学习人类反馈(DP-RLHF)框架,该框架通过在监督微调、奖励模型学习及策略优化各阶段实施差分隐私保护,并采用无需标注的偏好构建策略,在确保严格隐私保障的同时实现了医疗聊天机器人的安全对齐与实用化。
该论文通过受控实验表明,基于输出分布的污染检测方法(CDD)在小型语言模型中因依赖verbatim记忆而表现不佳,其效果远不如困惑度(perplexity)和 Min-k% Prob 等概率基方法。
本文介绍了 vLLM Hook v0,这是一个开源插件,旨在突破现有 vLLM 对模型内部状态编程的限制,通过被动监控和主动干预两种机制,支持在推理过程中实时检测对抗提示、增强检索增强生成(RAG)以及实施激活导向等高级功能。
该论文提出了一种结合神经推理、结构感知先验与在线任务适应的 Transformer 系统,通过紧凑的任务编码、基于群对称性的数据增强、测试时训练(TTT)以及对称性感知解码,显著提升了 ARC 任务的泛化能力并缩小了与人类水平的差距。
该论文从可解释性视角揭示了大语言模型中“注意力汇聚”现象的成因,提出了一种不依赖语义信息的"P0 汇聚电路”机制,解释了模型如何在输入序列首个令牌处形成注意力汇聚,并发现该机制在训练早期出现且随训练进程逐渐集中,可作为预训练收敛状态的潜在指标。
该论文利用概率上下文无关文法(PCFG)生成合成语料,揭示了数据生成过程中的层次结构是统一解释 Transformer 语言模型中归纳头、函数向量和 Hydra 效应等机制现象涌现的关键因素,并为此提供了理论依据。
本文提出了分层嵌入融合(HEF)方法,通过离线构建可复用的分层向量缓存和在线将检索向量映射为固定数量的伪令牌,在保持仓库级代码生成精度的同时,显著降低了检索增强代码生成的推理延迟。
该论文通过大规模人工验证揭示,现有“LLM 作为裁判”的框架因无法应对红队测试中的分布偏移,导致其评估结果往往退化为随机猜测,并指出许多攻击实则是利用了裁判模型的缺陷而非真正产生了有害内容,为此作者提出了更可靠的基准测试与裁判压力测试数据集以改进评估体系。
该论文提出了名为 PerContrast 的自对比方法及 PerCE 损失函数,通过在训练中对依赖用户特定信息的 Token 进行自适应加权,显著提升了大语言模型在个性化任务中的表现及跨场景泛化能力。
该论文提出了一种基于输出锚点概率的归一化置信度评分框架,用于在无需外部验证的情况下检测大语言模型的错误与幻觉,并通过理论分析与实验证实了监督微调能提升置信度校准性而强化学习易导致过度自信,进而提出后强化学习微调方案以恢复模型可靠性,最终实现了在自适应检索增强生成中仅用 58% 的检索操作即可恢复 95% 最大精度增益的高效应用。
本文提出了 GraphSkill,这是一种文档引导的层次化检索增强编码框架,通过利用文档层级结构进行检索以及引入自调试智能体来修复逻辑错误,从而显著提升了大语言模型在复杂图推理任务中的代码生成质量与效率。
SR-TTT 通过引入基于损失门控的稀疏记忆机制,将高惊异度的关键令牌动态路由至精确注意力残差缓存,从而在保持 O(1) 内存占用的同时解决了传统测试时训练(TTT)模型在精确回忆任务中的灾难性遗忘问题。