RexDrug: Reliable Multi-Drug Combination Extraction through Reasoning-Enhanced LLMs
本文提出了 RexDrug,一种基于大语言模型的推理增强框架,通过多智能体协作生成专家级推理轨迹及多维奖励强化学习策略,有效解决了从生物医学文献中可靠提取复杂多变的多药组合(n-ary)关系这一难题。
1072 篇论文
本文提出了 RexDrug,一种基于大语言模型的推理增强框架,通过多智能体协作生成专家级推理轨迹及多维奖励强化学习策略,有效解决了从生物医学文献中可靠提取复杂多变的多药组合(n-ary)关系这一难题。
该论文研究表明,在连续潜在空间中进行推理(Continuous Chain-of-Thought)相比传统的显式思维链,在低资源语言的零样本场景下具有更强的鲁棒性和语言不变性,同时能将推理过程压缩 29 至 50 倍,为跨语言推理提供了可扩展的高效解决方案。
本文介绍了 TildeOpen LLM,这是一个通过结合数据过采样与课程学习策略,在有限计算资源下实现了 34 种欧洲语言(特别是波罗的海、芬兰 - 乌戈尔及斯拉夫语族)公平且高质量表示的 300 亿参数开源基础模型。
本文提出了 CoPaLink 系统,通过结合命名实体识别与生物信息学知识库链接技术,实现了科学论文中的工具描述与可执行工作流代码之间的自动关联,从而有效提升了生物信息学工作流的可复现性与可理解性。
该论文指出,现有针对 PII 去除技术的攻击研究因存在数据泄露和污染问题而高估了攻击成功率,且由于受限于无法获取真实的隐私数据,公共研究界目前难以开展透明、可复现且可信的评估。
DualTurn 是一种基于双通道生成式语音预训练的模型,它通过无监督学习对话动态并微调为可解释的轮次信号,实现了比现有方法更自然、更精准的语音交互轮次预测与代理动作生成。
该论文提出了跨语言转移矩阵(CLTM)这一系统性方法,用于量化性别识别和说话人验证等副语言任务中不同语言对之间的交互影响,并揭示了基于多语言 HuBERT 编码器的微调过程中存在的显著且系统性的语言依赖性转移模式。
本文提出了“纤维化策略优化”(FiberPO)框架,通过推导聚合策略截断目标(APC-Obj)和构建纤维束门控(FBG)代数结构,首次将信任区域理论与可组合的代数层级相结合,实现了从词元到轨迹乃至多领域层级的统一多尺度稳定性控制。
该论文研究了训练随机性对大语言模型解释稳定性的影响,发现句法上下文、待分类类别和任务类型均具有统计显著性影响,其中任务类型的影响最大,类别次之,句法上下文最小。
该论文提出了一种利用真实音频驱动静态面部图像生成合成视频流的零资源框架,成功在缺乏标注数据的加泰罗尼亚语上实现了接近最先进水平的音视频语音识别性能,证明了合成视觉数据是替代真实录音的可行方案。
该论文提出了 CoFiCot 框架,通过多指标分类器动态识别问题难度,将查询分流至高效聚合或基于过程奖励模型的状态化修正循环,从而在提升大模型推理能力的同时解决测试时计算资源分配不均的悖论。
本文介绍了 NCL-UoR 团队在 SemEval-2026 任务 5 中的研究,通过系统比较嵌入方法、微调模型和大型语言模型,发现采用结构化提示与显式决策规则的组合策略在词义合理性评分任务中表现最佳,且提示设计的重要性超过了模型规模。
该研究通过 RIKER 方法在 1720 亿 tokens 的超大规模评估中发现,尽管模型选择是影响幻觉率的最关键因素,但所有模型在长上下文(尤其是 200K 时)中仍会出现显著的事实编造现象,且温度设置需在准确性与生成稳定性之间进行权衡,而硬件平台对结果无显著影响。
本文提出了 AdaCultureSafe 框架,通过构建包含细粒度文化描述与验证查询的大规模数据集,揭示了大语言模型中文化安全性与文化知识掌握度之间缺乏显著相关性,并进一步提出了一种将文化知识深度融入生成过程的方法,从而显著提升了模型的文化安全性。
该研究通过结构化扰动评估了大语言模型在 EPSRC 资助提案评审中的能力,发现分章节分析架构在检测率和评分可靠性上表现最佳,但现有模型仍存在高变异性且更倾向于合规性检查而非整体评估,因此目前仅适合作为辅助评审工具。
该论文提出了名为 SBARThez 的框架,通过结合多模态与语言无关的句子嵌入(如 LaBSE、SONAR 和 BGE-M3)以及命名实体注入机制,在改进的 BART 模型上实现了支持文本和语音输入的跨语言抽象摘要,有效提升了摘要的简洁性、抽象度及事实一致性,尤其在低资源语言场景下表现优异。
本文介绍了 LAMUS,这是一个利用大语言模型结合人类反馈构建的、涵盖美国最高法院及德克萨斯州刑事上诉判决的大规模法律论证挖掘语料库,并通过实证研究验证了思维链提示在提升模型性能及标注质量方面的显著效果。
该论文提出了一种统一的后训练框架,使单一语音基础模型能够学习多种任意类型的语句级属性表示(如语义和说话人特征),从而在跨语言语音检索和说话人识别任务中实现高效的多模态与多语言应用。
本文提出了名为 SlowBA 的新型后门攻击,通过两阶段奖励级注入策略诱导基于视觉语言模型(VLM)的 GUI 代理在特定触发条件下生成冗长的推理链,从而在保持任务准确性的同时显著增加响应延迟,揭示了此类代理在响应效率方面被忽视的安全漏洞。
本文提出了 SPD-RAG,一种通过为每份文档分配专用代理进行聚焦检索、再由协调器聚合合成答案的分层多智能体框架,在长文档问答任务中显著提升了答案质量并大幅降低了 API 成本。