Trust in, acceptance of, and responsibility for, artificial intelligence in healthcare: patient and healthcare practitioner considerations

这项在荷兰进行的定性研究通过对比外科医生、护士与胃肠手术患者的访谈,揭示了双方在人工智能医疗应用中对信任、责任及伦理等主题存在共识,但在关注焦点上(如临床验证与人文关怀)存在显著差异,强调了在推动 AI 落地时需兼顾多方视角的复杂性。

Spencer, E.-J., Ihaddouchen, I., Buijsman, S., Jung, J., van der Vorst, J., Grünhagen, D., Verhoef, K., Gommers, D., van Genderen, M. E., Hilling, D.

发布于 2026-03-17
📖 1 分钟阅读☕ 轻松阅读
⚕️

这是一篇未经同行评审的预印本的AI生成解释。这不是医疗建议。请勿根据此内容做出健康决定。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一场关于**“未来医生助手(AI)”的深入对话。研究人员在荷兰鹿特丹的一家大医院里,分别采访了医生(外科医生和护士)刚做过肠胃手术的病人**,想搞清楚大家心里是怎么看待把人工智能(AI)引入医疗的。

为了让你更容易理解,我们可以把AI 想象成一个超级聪明、读过无数病历的“新实习生”

以下是这篇论文的核心内容,用大白话和比喻讲给你听:

1. 大家对这个“新实习生”了解多少?(AI 知识)

  • 医生们: 大部分医生知道这个“实习生”很火,但很多人觉得它像个黑盒子。有的医生说:“我知道它厉害,但具体怎么算的,我不太懂。”他们担心如果太依赖它,自己会像“被导航带着走”的司机,忘了怎么看路。
  • 病人们: 病人更多是从新闻或社交媒体上听说 AI 的。他们觉得这东西很神奇,但也很模糊。
  • 共同点: 大家都觉得,“不懂行”不代表要拒绝它,但医生必须得知道它的底线在哪里(比如它什么时候会犯错),就像开车前得知道刹车灵不灵一样。

2. 谁说了算?(责任与自主权)

  • 医生的态度: 医生们非常坚持:“最后拍板的人必须是我(医生)。” 即使 AI 说“病人可以出院了”,如果医生凭经验觉得“不行,这病人看着不对劲”,医生会直接无视 AI,把病人留下。
    • 比喻: AI 就像是一个导航仪,它说“前方左转”,但如果你看到前面有塌方(直觉/经验),你肯定会自己踩刹车,不会听导航的。
  • 病人的态度: 病人更在意**“我有没有被听见”**。他们担心医生太听 AI 的,会忽略病人自己的感受(比如“我觉得我还是很疼”)。
    • 比喻: 病人怕的是医生变成了**“只会读说明书的机器人”**,而忘了自己是一个有血有肉、会喊疼的人。

3. 信任是怎么建立的?(信任)

  • 医生信任谁? 医生不轻易信任 AI 本身。他们信任的是**“经过严格测试的数据”“持续的监控”。他们希望 AI 能像“副驾驶”**一样,在关键时刻给个建议,但方向盘还得在自己手里。
  • 病人信任谁? 病人其实不直接信任 AI。他们信任的是他们的医生
    • 比喻: 病人想的是:“只要我的主治医生觉得这个 AI 靠谱,那我就信医生;如果医生觉得不行,那 AI 再厉害我也不信。”信任是“人传人”的,不是“人传机器”的。

4. 这个“实习生”能干啥?(实际影响)

  • 好消息: 大家都觉得 AI 能帮大忙。它能在一秒钟内看完几千份病历,找出人类医生容易忽略的规律。
    • 比喻: 医生每天要处理很多杂事,AI 就像是一个超级秘书,能帮医生整理文件、算数据,让医生有更多时间盯着病人,而不是盯着电脑屏幕。
  • 坏消息(担忧): 医生担心如果 AI 算错了,病人会不会被过早赶出医院(比如刚做完手术就出院,结果回家又病倒了)。
    • 比喻: 就像天气预报,如果预报说“明天晴天”结果下暴雨,大家就会淋湿。医生担心 AI 的“天气预报”不准,导致病人“淋雨”。

5. 最大的挑战:怎么把它“塞”进工作流程?

  • 医生们最烦的是**“增加工作量”**。如果为了用 AI,医生要多点几十个按钮、多填很多表格,那大家肯定不用。
  • 理想状态: AI 应该像**“隐形助手”**,直接出现在医生现有的电脑屏幕上,不用切换软件,不用额外操作,顺手就能用。
  • 现实担忧: 很多新科技刚出来时,往往会让医生更忙(因为要学怎么操作、要核对数据)。大家担心 AI 也会变成另一个“麻烦制造者”。

6. 总结:我们要什么样的未来?

这篇论文告诉我们,AI 在医疗里能不能成功,不光看技术牛不牛,还得看“人”怎么想。

  • 对医生来说: 需要培训,让他们知道 AI 的局限性,别盲目迷信,要把它当工具而不是主人。
  • 对病人来说: 需要透明,医生得告诉他们“我们用了 AI 辅助”,并且保证**“你的感受比数据更重要”**。
  • 核心结论: 如果医生把 AI 当成**“说服病人的武器”(比如:“你看 AI 都让你出院了,你必须走”),那病人会感到被冒犯。但如果医生把 AI 当成“帮助判断的帮手”**,并且始终尊重病人的感受,那 AI 才能真正帮上忙。

一句话总结:
AI 是个很厉害的**“副驾驶”,但医生必须握紧方向盘**,同时别忘了听听“乘客”(病人)的感受,这样车子才能开得又稳又安全。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →