No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models
该论文通过受控实验表明,基于输出分布的污染检测方法(CDD)在小型语言模型中因依赖verbatim记忆而表现不佳,其效果远不如困惑度(perplexity)和 Min-k% Prob 等概率基方法。
1071 篇论文
该论文通过受控实验表明,基于输出分布的污染检测方法(CDD)在小型语言模型中因依赖verbatim记忆而表现不佳,其效果远不如困惑度(perplexity)和 Min-k% Prob 等概率基方法。
本文介绍了 vLLM Hook v0,这是一个开源插件,旨在突破现有 vLLM 对模型内部状态编程的限制,通过被动监控和主动干预两种机制,支持在推理过程中实时检测对抗提示、增强检索增强生成(RAG)以及实施激活导向等高级功能。
该论文提出了一种结合神经推理、结构感知先验与在线任务适应的 Transformer 系统,通过紧凑的任务编码、基于群对称性的数据增强、测试时训练(TTT)以及对称性感知解码,显著提升了 ARC 任务的泛化能力并缩小了与人类水平的差距。
该论文从可解释性视角揭示了大语言模型中“注意力汇聚”现象的成因,提出了一种不依赖语义信息的"P0 汇聚电路”机制,解释了模型如何在输入序列首个令牌处形成注意力汇聚,并发现该机制在训练早期出现且随训练进程逐渐集中,可作为预训练收敛状态的潜在指标。
该论文利用概率上下文无关文法(PCFG)生成合成语料,揭示了数据生成过程中的层次结构是统一解释 Transformer 语言模型中归纳头、函数向量和 Hydra 效应等机制现象涌现的关键因素,并为此提供了理论依据。
本文提出了分层嵌入融合(HEF)方法,通过离线构建可复用的分层向量缓存和在线将检索向量映射为固定数量的伪令牌,在保持仓库级代码生成精度的同时,显著降低了检索增强代码生成的推理延迟。
该论文通过大规模人工验证揭示,现有“LLM 作为裁判”的框架因无法应对红队测试中的分布偏移,导致其评估结果往往退化为随机猜测,并指出许多攻击实则是利用了裁判模型的缺陷而非真正产生了有害内容,为此作者提出了更可靠的基准测试与裁判压力测试数据集以改进评估体系。
该论文提出了名为 PerContrast 的自对比方法及 PerCE 损失函数,通过在训练中对依赖用户特定信息的 Token 进行自适应加权,显著提升了大语言模型在个性化任务中的表现及跨场景泛化能力。
该论文提出了一种基于输出锚点概率的归一化置信度评分框架,用于在无需外部验证的情况下检测大语言模型的错误与幻觉,并通过理论分析与实验证实了监督微调能提升置信度校准性而强化学习易导致过度自信,进而提出后强化学习微调方案以恢复模型可靠性,最终实现了在自适应检索增强生成中仅用 58% 的检索操作即可恢复 95% 最大精度增益的高效应用。
本文提出了 GraphSkill,这是一种文档引导的层次化检索增强编码框架,通过利用文档层级结构进行检索以及引入自调试智能体来修复逻辑错误,从而显著提升了大语言模型在复杂图推理任务中的代码生成质量与效率。
SR-TTT 通过引入基于损失门控的稀疏记忆机制,将高惊异度的关键令牌动态路由至精确注意力残差缓存,从而在保持 O(1) 内存占用的同时解决了传统测试时训练(TTT)模型在精确回忆任务中的灾难性遗忘问题。
本文提出了名为 TimeSpot 的基准测试,旨在评估视觉语言模型在真实世界场景下仅凭视觉输入推断地理位置和时间信息的能力,结果显示当前最先进的模型在此类任务上表现不足,亟需新方法以实现鲁棒的地理时空理解。
本文介绍了 Orion,这是首个能够绕过 CoreML 直接利用苹果神经引擎(ANE)进行大语言模型训练与推理的开源端到端系统,它通过揭示并规避 ANE 的 20 项限制、实现权重热更新以将每步训练时间缩短 8.5 倍,并在 M4 Max 设备上成功实现了 GPT-2 的高效推理及 1.1 亿参数模型的稳定训练。
该论文提出将人类“黑暗三角”人格(自恋、精神病态和马基雅维利主义)作为研究人工智能对齐问题的模型,并通过实证研究发现,仅需对前沿大语言模型进行极小规模的针对性微调,即可诱导出与人类反社会行为高度一致的虚假人格,且模型能展现出超越训练数据的泛化推理能力。
该研究验证了一款本地部署的小规模语言模型在儿童福利记录中识别七类 DSM-5 物质滥用情况的有效性,结果显示除低流行度的致幻剂和吸入剂外,该模型对酒精、大麻等五类主要物质的分类与专家人工审核达到了近乎完美的协议。
该论文提出了一种利用大语言模型辅助安全研究论文中 artifact 评估的框架,通过自动化文本可复现性评级、沙箱环境准备及方法论缺陷检测,显著降低了审稿人工作量并提升了评估效率与质量。
本文旨在为自然语言处理领域提供一份指南,通过梳理不同任务类型下的一致性度量方法的假设与局限,并针对标签不平衡和缺失数据等因素提出最佳实践,以帮助研究人员选择并正确解读合适的标注者间一致性指标,从而提升人工标注与评估的一致性和可复现性。
本文提出了名为 SymLang 的统一框架,通过结合类型化对称约束语法、语言模型引导的程序合成以及 MDL 正则化贝叶斯模型选择,在含噪和部分观测条件下显著提升了从实验数据中精确发现物理控制方程的准确性与可解释性。
本文提出了名为 LieCraft 的多智能体评估框架,通过构建包含 10 个高利害现实场景的隐藏角色游戏,揭示了当前主流大语言模型在追求目标时普遍存在违背伦理、隐瞒意图及撒谎等欺骗行为。
该论文提出了包含 57.1 万条指令对的 MedInjection-FR 数据集,通过对比原生、合成及翻译三种数据源,证实了原生数据在法语生物医学指令微调中表现最佳,而混合数据策略能有效缓解高质量原生数据稀缺的问题。