A statistical framework for evaluating the repeatability and reproducibility of large language models

本文提出了一种受监管指导启发的统计框架,通过语义和内部两个维度量化大语言模型在生物医学任务中的重复性和可复现性,并发现提示策略显著影响其输出稳定性,且稳定性与诊断准确性并无必然关联。

Shyr, C., Ren, B., Hsu, C.-Y., Yan, C., Tinker, R. J., Cassini, T. A., Hamid, R., Wright, A., Bastarache, L., Peterson, J. F., Malin, B. A., Xu, H.

发布于 2026-03-25
📖 1 分钟阅读☕ 轻松阅读
⚕️

这是一篇未经同行评审的预印本的AI生成解释。这不是医疗建议。请勿根据此内容做出健康决定。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文主要解决了一个关于人工智能(特别是大型语言模型,LLM)在医疗领域应用时的核心问题:如果同一个医生(AI)面对同一个病人,每次看病给出的诊断都不一样,那我们还敢相信它吗?

为了让你更容易理解,我们可以把这篇论文的研究内容想象成**“测试一位新入职的实习医生的稳定性”**。

1. 核心问题:AI 的“情绪”太不稳定

现在的 AI 医生(如 ChatGPT)很聪明,能写出像模像样的病历。但是,它们不像人类医生那样有固定的逻辑。

  • 比喻:想象你让一位 AI 医生给同一个病人看病。
    • 第一次问:“病人发烧头痛,是什么病?”它回答:“是脑膜炎。”
    • 第二次问完全一样的问题,它可能回答:“可能是流感,也可能是脑膜炎。”
    • 第三次,它又说:“我觉得是偏头痛。”
    • 虽然它偶尔能猜对,但如果每次答案都飘忽不定,医生和患者就会很困惑:到底该信哪一次?

这就引出了论文的两个核心概念:

  • 可重复性 (Repeatability):在完全相同的条件下(同样的问题、同样的设置),AI 每次给出的答案是否一致?
  • 可复现性 (Reproducibility):在稍微不同的条件下(比如换了一种问法,或者换了个医生来问),AI 的核心结论是否依然一致?

2. 他们发明了什么?一套“体检工具”

作者们开发了一套统计框架,就像给 AI 医生做“体检”的仪器。这套仪器有两个维度的检查:

A. 语义检查(看“意思”变没变)

  • 比喻:这就像检查 AI 说的“话”。
    • 如果 AI 第一次说“是脑膜炎”,第二次说“确诊为脑膜炎”,虽然措辞不同,但意思一样。这叫“语义可重复性”高。
    • 如果第一次说“脑膜炎”,第二次说“流感”,那就是“语义可重复性”低。
  • 目的:确保 AI 每次传达的核心信息是稳定的,不会今天说东,明天说西。

B. 内部检查(看“心里”慌不慌)

  • 比喻:这就像检查 AI 的“内心戏”或“自信心”。
    • 当 AI 生成文字时,它其实是在做概率游戏(比如:90% 概率选“脑膜炎”,10% 概率选“流感”)。
    • 内部可重复性检查的是:每次它做这个概率游戏时,是不是都那么笃定
    • 如果第一次它非常确定(99% 选脑膜炎),第二次却犹豫不决(50% 脑膜炎,50% 流感),哪怕最后选的都是脑膜炎,它的内部稳定性也很差。这说明它其实是在“瞎蒙”,而不是真的“懂”。

3. 他们做了什么实验?

为了测试这套工具,他们找来了518 道美国医学执照考试(USMLE)的题目90 个真实的罕见病病例,让三个不同的 AI 模型(ChatGPT-4, ChatGPT-4o-mini, LLaMA)反复回答。

  • 就像:让三个不同的实习医生,面对同样的考题和真实的复杂病例,每人重复回答 100 次,看看谁最稳。

4. 发现了什么有趣的结果?

  • 结果一:怎么问很重要(提示词策略)

    • 研究发现,如果你用**“贝叶斯推理”**(一种像侦探一样,根据新证据不断更新怀疑对象的逻辑)去提问,AI 的回答最稳定。
    • 比喻:就像你问 AI“请像侦探一样一步步推理”,它比直接问“是什么病”要靠谱得多,答案更一致。
  • 结果二:答得对 \neq 答得稳

    • 这是最惊人的发现:AI 答对了一次,不代表它下次还能答对;甚至有时候它每次都答错了,但错得很有“规律”(很稳定)。
    • 比喻:一个蒙题的实习生,可能第一次蒙对了答案,但第二次、第三次就蒙错了。或者,他每次都坚定地认为“病人是外星人”,虽然这是错的,但他很“稳定”。
    • 结论:不能只看准确率(Accuracy),还要看稳定性(Repeatability)。
  • 结果三:真实病例比考试题更“稳”

    • 在真实的罕见病病例(信息复杂、细节多)上,AI 的回答反而比在标准化的考试题上更一致。
    • 比喻:可能是因为真实病例细节太多,限制了 AI“乱发挥”的空间,反而让它不得不更专注。

5. 这对我们意味着什么?

这篇论文告诉我们,在医疗领域使用 AI 时,不能只看它“能不能答对题”

  • 以前的做法:就像只问学生“这道题选 A 还是 B?”,选对了就满分。
  • 现在的做法:我们要问学生“这道题你选了 A,那如果你再选一次,还会选 A 吗?你心里有多确定是 A?”

总结来说
作者们给 AI 医生设计了一套**“稳定性体检”。这套工具能帮助医生和监管机构判断:这个 AI 是“偶尔灵光一闪的天才”,还是“每次都能稳定发挥的可靠伙伴”。在救死扶伤的医疗领域,“稳定”往往比偶尔的“正确”**更重要。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →