Agent Tools Orchestration Leaks More: Dataset, Benchmark, and Mitigation
该论文首次系统研究了由大语言模型驱动的单智能体多工具架构中存在的“工具编排隐私风险”(TOP-R),通过构建基准测试揭示其普遍性并分析成因,进而提出了针对输出、推理和审查阶段的有效缓解策略。
1077 篇论文
该论文首次系统研究了由大语言模型驱动的单智能体多工具架构中存在的“工具编排隐私风险”(TOP-R),通过构建基准测试揭示其普遍性并分析成因,进而提出了针对输出、推理和审查阶段的有效缓解策略。
该论文提出了一种名为 WBC 的基于滑动窗口的成员推断攻击方法,通过聚合不同尺度局部上下文中的损失比较信号,显著提升了在微调大语言模型中识别训练数据的能力,并揭示了局部证据聚合比全局平均更有效的隐私漏洞。
该论文提出了一种通过集成七种可读性指标和聚类方法微调大语言模型的框架,成功生成了涵盖六个教育阶段的适龄教学内容,在保持事实准确性的同时将年级对齐度相比提示方法提升了 35.64 个百分点,从而有效应对全球师资短缺并促进教育公平。
本文提出了 PyMUSAS 框架,通过构建银标准数据集并融合规则系统与神经网络模型,在五种语言上实现了对 USAS 语义框架的大规模多语言语义标注评估与增强。
该论文指出大推理模型在强化学习后训练中出现了探索崩溃现象,并提出了无需额外训练或参数的“潜在探索解码”(LED)方法,通过聚合中间层后验分布并选择熵最大的深度配置,有效提升了模型在多个推理基准上的准确率。
本文提出了 COMI 框架,通过引入边际信息增益(MIG)指标,采用从粗粒度组重分配到细粒度 Token 合并的两阶段自适应压缩策略,在大幅降低上下文冗余的同时显著提升长文本任务中的语义保留能力与模型性能。
本文通过展示研究人员利用 Google Gemini 系列模型在理论计算机科学、经济学及物理学等领域成功解决开放问题、证伪猜想及生成新证明的案例,提炼出迭代优化、问题分解等高效人机协作技巧,并探讨了将模型作为对抗性审查者或嵌入神经符号循环等进阶应用,论证了 AI 作为科学发现创造性伙伴的潜力。
本文介绍了名为 Aletheia 的自主数学研究智能体,它通过结合先进推理模型、推理时扩展定律及工具使用能力,实现了从奥林匹克竞赛题到生成无人类干预研究论文、证明新定理及解决开放问题等里程碑式的 AI 辅助数学研究突破。
该论文提出了名为 DataChef-32B 的强化学习框架,通过端到端自动生成数据食谱来优化大语言模型适应过程,其生成的食谱在多个任务上达到了专家级水平,并成功将 Qwen3-1.7B-Base 在 AIME'25 数学基准上的表现提升至超越官方后训练检查点的 66.7 分。
本文通过系统文献综述批判了机器学习中将人类分歧视为噪声的“共识陷阱”谬误,揭示了数据标注中存在的锚定偏差与西方中心主义霸权,并主张将分歧重新定义为构建文化胜任模型的关键信号,从而推动从追求单一“真理”向映射人类经验多样性的标注范式转型。
该论文提出了 IntelliAsk,一种通过构建基于专家标注的奖励模型 IntelliReward 并结合 DAPO 强化学习算法,使大语言模型能够生成更具深度、证据充分且基于全文内容的高质量科研审稿问题的方法。
该论文针对现有跨文档核心ference数据集在词汇多样性与框架差异处理上的局限,提出了一种将核心ference链视为话语元素的新标注方案,通过重新标注 NewsWCL50 和 ECB+ 子集并引入统一编码规范,有效提升了模型对新闻话语中多样化措辞及框架变化的捕捉能力。
该论文提出了一种匹配骨干测试方法并结合机制分析,揭示当前语音大语言模型在多数场景下实为成本高昂的级联系统,且在噪声环境下其性能甚至可能低于传统的“语音识别转文本再输入大模型”的级联方案。
该论文指出传统 Text-to-SQL 指标无法评估大规模数据场景下的成本与性能开销,因此提出了针对“文本转大数据 SQL"的新评估体系,并通过实验证明现有指标在大规模数据下存在不足,而新指标能更准确地反映执行效率、成本及数据规模的影响。
该论文从信息论角度将多模态大模型的模态坍塌现象重新定义为“失配解码”问题,揭示了其性能瓶颈源于解码器的评分规则而非编码器架构,并证明了训练目标直接决定了模型可提取的信息范围。
本文提出了名为 CoME 的新型移动智能体架构,通过引入四个针对特定推理阶段的专家模块、分阶段渐进式训练策略以及基于信息增益的 Info-DPO 优化方法,有效解决了现有移动智能体在屏幕总结、子任务规划等混合能力推理中难以实现解耦增强与平衡协同的问题,并在 AITZ 和 AMEX 数据集上取得了优于密集模型及混合专家方法的表现。
本文介绍了名为 Aletheia 的新型浏览器扩展,它利用检索增强生成(RAG)和大语言模型(LLM)技术,不仅通过实验证明在虚假新闻检测性能上优于现有基线,还通过包含讨论中心和事实核查推送的交互功能,在 250 名参与者的用户研究中验证了其高可用性与感知有效性,从而提供了一种透明且以用户为中心的解决方案来应对虚假新闻传播问题。
本文提出了 Omni-C,一种基于单一稠密 Transformer 编码器的统一架构,它通过大规模非对齐数据的单模态对比预训练和轻量级投影头,在无需混合专家(MoE)或配对监督的情况下,有效压缩了图像、音频和文本等异构模态,显著降低了推理内存开销并实现了与专家模型相当的性能。
该论文通过引入结构歧义成本(SAC)和证明引擎无关的下界,揭示了语法等价性并不保证解码效率,并提出了基于可达性预言机的语法约束解码理论框架,以优化大语言模型在上下文无关语法约束下的解码性能与成本。
本文介绍了 EigenData,一个通过多智能体架构实现函数调用数据合成、审计与修复的自进化平台,该平台在修复 Berkeley 函数调用排行榜(BFCL-V3)基准测试的同时,引入了基于数据库状态正确性的结果感知评估协议,显著提升了模型排名与人类对功能正确性判断的相关性。