Tracking Cancer Through Text: Longitudinal Extraction From Radiology Reports Using Open-Source Large Language Models

该研究提出了一种基于开源大语言模型(qwen2.5-72b)和 llm_extractinator 框架的本地化部署管道,用于从放射学报告中按 RECIST 标准提取纵向肿瘤信息,在荷兰 CT 报告测试中实现了高准确率,证明了开源模型在保障数据隐私的同时能有效支持临床纵向数据分析。

Luc Builtjes, Alessa HeringWed, 11 Ma💬 cs.CL

Understanding the Interplay between LLMs' Utilisation of Parametric and Contextual Knowledge: A keynote at ECIR 2025

这篇 ECIR 2025 主题演讲摘要探讨了大型语言模型在知识密集型任务中如何协调参数化知识与上下文检索知识之间的复杂互动,重点分析了知识冲突(包括参数内冲突及与上下文的冲突)的成因,并介绍了评估模型知识状态、诊断冲突及理解上下文知识有效利用特征的研究成果。

Isabelle AugensteinWed, 11 Ma💬 cs.CL

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

该研究提出了一种基于大型上下文电子健康记录的自动心血管风险管理分类框架,通过对比传统机器学习、专用深度学习架构及生成式大语言模型,证实了定制 Transformer 模型在捕捉医疗文本长程依赖方面表现最优,为老年心血管风险分层提供了高效的自动化替代方案。

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van EsWed, 11 Ma🤖 cs.AI

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

该论文提出了 ActiveUltraFeedback,一种利用主动学习动态筛选高信息量样本以生成偏好数据的模块化流程,通过引入 DRTS 和 DeltaUCB 等新颖方法,仅用六分之一的标注数据即可实现与静态基线相当甚至更优的大语言模型对齐效果。

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas KrauseWed, 11 Ma🤖 cs.AI

Evaluation of LLMs in retrieving food and nutritional context for RAG systems

该论文评估了四种大语言模型在将自然语言查询转化为结构化元数据以检索专业食品营养数据库方面的表现,发现其在处理可明确表达的约束时效果显著,能有效降低领域专家的使用门槛,但在涉及无法通过元数据格式表达的复杂约束时仍面临挑战。

Maks Požarnik Vavken, Matevž Ogrinc, Tome Eftimov, Barbara Koroušic SeljakWed, 11 Ma💬 cs.CL

One-Eval: An Agentic System for Automated and Traceable LLM Evaluation

本文介绍了 One-Eval,一个能够将自然语言评估请求自动转化为可执行、可追溯且可定制的评估工作流的智能体系统,旨在通过集成基准规划、数据获取与归一化、任务感知指标选择及人机协作机制,解决大语言模型评估中依赖人工操作、难以复现及缺乏可解释性等挑战。

Chengyu Shen, Yanheng Hou, Minghui Pan, Runming He, Zhen Hao Wong, Meiyi Qiang, Zhou Liu, Hao Liang, Peichao Lai, Zeang Sheng, Wentao ZhangWed, 11 Ma💬 cs.CL

Chow-Liu Ordering for Long-Context Reasoning in Chain-of-Agents

该论文提出利用 Chow-Liu 树学习长文本块间的依赖结构,并通过广度优先遍历确定处理顺序,从而在 Chain-of-Agents 框架中减少信息损失,显著提升长上下文推理任务的答案相关性和准确率。

Naman Gupta, Vaibhav Singh, Arun Iyer, Kirankumar Shiragur, Pratham Grover, Ramakrishna B. Bairi, Ritabrata Maiti, Sankarshan Damle, Shachee Mishra Gupta, Rishikesh Maurya, Vageesh D. CWed, 11 Ma💬 cs.CL