Each language version is independently generated for its own context, not a direct translation.
这篇论文就像是一份**"2025 年医疗 AI 界的年终体检报告”**。
想象一下,医疗人工智能(AI)是一个正在快速长大的孩子。2024 年,它刚学会说话(主要是文字聊天);而到了 2025 年,这个孩子不仅词汇量暴增,还学会了看图片、听声音,甚至能同时处理多种信息,变得更像一个真正的“全科医生”助手。
以下是用大白话和生动的比喻为你解读的这份报告核心内容:
1. 规模大爆发:从“小作坊”到“大工厂”
- 现象:2025 年关于医疗 AI 的论文数量几乎翻了一倍(从 2024 年的 2.8 万篇涨到 4.9 万篇)。
- 比喻:以前大家是在自家后院(小实验室)里做实验,现在直接建起了大型科技工厂。大家都在争先恐后地测试各种新奇的 AI 工具,看看谁能帮医生解决实际问题。
- 成熟度:虽然论文多,但研究人员很聪明,他们不仅数数量,还挑出了3366 篇“成熟”的论文。这些不是空想,而是真的能直接帮到病人、能落地使用的成果。
2. 主角大换血:从“只会读书”到“全能学霸”
这是今年最大的变化。
- 过去(2024 年及以前):大家主要用大语言模型(LLM),就像给 AI 装了一本厚厚的“字典”,它很擅长读病历、写报告、回答问题(文字处理)。
- 现在(2025 年):
- 多模态基础模型(Multimodal Foundation Models) 异军突起。这就像给 AI 装上了眼睛、耳朵和大脑。它不仅能读文字,还能看懂 X 光片、CT 扫描,甚至听懂医生的听诊声。
- 数据:这类“全能型”AI 的论文从去年的 25 篇猛增到 144 篇。
- 传统机器学习:那些只会做简单数学题的“老式 AI"(传统机器学习)开始退场了,因为它们处理不了医疗里那种复杂的“大场面”。
3. 谁在用 AI?(热门领域)
- 影像科(Radiology)是“带头大哥”:
- 比喻:就像超级侦探。因为 X 光、CT 本身就是图片,AI 看图片的能力太强了,所以影像科成了发表论文最多的地方(976 篇)。AI 现在能帮医生快速看片子,甚至自动生成诊断报告。
- 行政和教育:
- 比喻:像是超级秘书和助教。AI 帮医生写病历、整理行政文件、给学生出题考试。这部分主要靠“文字型 AI",因为不需要看片子,只需要处理文字。
- 其他热门:眼科、头颈外科、肿瘤科、病理学等也在紧跟潮流,开始用 AI 分析复杂的图像数据。
4. 数据变了:从“只吃文字”到“营养均衡”
- 以前:AI 主要“吃”文字数据(病历、论文)。
- 现在:
- 图片依然是主食(占 53.9%),因为医疗里全是片子。
- 文字是配菜(占 38.2%)。
- 声音(音频)开始上桌了(虽然只占 1.2%,但在增长)。
- 比喻:以前的 AI 是个“文盲”,只认字;现在的 AI 是个**“五感俱全”的实习生**,能看图、听诊、读报告,综合判断病情。
5. 未来的信号:从“玩具”到“工具”
- 结论:2025 年标志着医疗 AI 从“玩票性质”的探索,正式进入了**“实战演练”**阶段。
- 趋势:
- 大家不再满足于让 AI 写写诗或聊聊天,而是让它真正参与看病。
- 虽然目前很多 AI 还是藏在医院后台(比如proprietary models,即商业公司的私有模型,论文里没细说原理),但它们正在悄悄改变医生的工作方式。
- Agentic AI(智能体 AI):虽然今年讨论得还不多,但未来 AI 可能会像**“自动驾驶”**一样,不仅能回答问题,还能主动帮医生安排检查、预约病人,甚至执行复杂的医疗流程。
总结一句话
2025 年的医疗 AI,不再只是那个只会“背字典”的聊天机器人,它已经进化成了能“看图、听声、读文”的超级医疗助手,正准备在医院的各个科室里大显身手。
(注:这是一份预印本报告,尚未经过同行评审,主要用于展示趋势,目前还不能直接作为临床指南使用。)
Each language version is independently generated for its own context, not a direct translation.
《人工智能在医疗领域:2025 年度回顾》技术总结
1. 研究背景与问题 (Problem)
随着模型架构的突破和数据可用性的提升,医疗人工智能(AI)研究正以指数级速度发展。然而,该领域正面临从“探索性开发”向“现实世界评估与实施”转型的关键阶段。
- 核心挑战:传统的单一模态(主要是文本)模型已不足以反映临床数据的复杂性和多样性。医疗数据本质上是多模态的(包含图像、文本、音频、波形等)。
- 研究缺口:需要系统性地评估 2025 年医疗 AI 研究的成熟度、模型类型的演变(特别是从传统机器学习向基础模型,尤其是多模态基础模型的转变),以及这些技术在临床实际应用中的分布情况。
2. 方法论 (Methodology)
本研究采用了一套严谨的、基于混合方法的文献综述流程,旨在量化和定性分析 2025 年的医疗 AI 出版物。
3. 关键贡献 (Key Contributions)
- 年度趋势量化:提供了 2025 年医疗 AI 出版物数量的详细统计,显示总量接近翻倍,且成熟研究比例显著增加。
- 模型范式转移的实证:首次明确记录了经典机器学习 (ML) 使用量的下降,以及多模态基础模型 (Multimodal Foundation Models) 的爆发式增长,标志着研究重心从单一文本生成向多模态临床理解转移。
- 专科分布图谱:详细绘制了 AI 在不同医疗专科(如影像、行政、眼科、肿瘤等)的分布情况,揭示了不同专科对基础模型(LLM vs. FM-MM)的采用差异。
- 数据模态分析:量化了图像、文本和音频数据在研究中的使用比例,证实了多模态模型推动了音频数据使用的增长。
4. 主要结果 (Results)
A. 出版物规模与成熟度
- 总量:2025 年检索到 49,394 篇相关出版物(2024 年为 28,180 篇),增长近一倍。
- 成熟研究:3,366 篇被分类为成熟,经排除后最终分析 2,966 篇(2024 年为 1,946 篇)。
B. 医疗专科分布
- 主导领域:影像/放射科 (Imaging/Radiology) 以 976 篇出版物遥遥领先。
- 其他主要领域:行政 (277)、通用 (251)、头颈科 (185)、教育 (181)。
- 基础模型应用热点:在基础模型研究中,影像 (110)、头颈 (92)、外科 (64)、肿瘤 (55) 和眼科 (49) 是主要应用专科。行政和教育类研究主要由基于 LLM 的研究驱动。
C. 模型类型演变
- 大语言模型 (LLM):仍是最常用的模型类型 (1,019 篇),主要用于文本处理。
- 多模态基础模型 (FM-MM):从 2024 年的 25 篇激增至 144 篇,增长显著。
- 大视觉模型 (FM-LVM):增至 14 篇。
- 深度学习 (DL):数量大幅增加至 910 篇。
- 经典机器学习 (ML):首次出现下降,降至 173 篇。
- 趋势解读:研究正从低容量模型向高容量基础模型迁移,以处理更复杂的临床任务。
D. 数据类型分布
- 主导数据:图像 (53.9%) 和文本 (38.2%) 仍占主导地位。
- 新兴数据:音频数据使用量增至 1.2%,与多模态模型的采用直接相关。
- 多模态融合:94 篇 (3.1%) 出版物结合了多种数据类型(主要是图像 + 文本),反映了多模态基础模型的应用。
5. 研究意义与结论 (Significance & Conclusion)
- 领域成熟度提升:2025 年标志着医疗 AI 研究从探索性阶段迈向成熟的应用评估阶段。出版物数量的翻倍和成熟研究比例的增加表明,该领域正在产生更多具有临床实际价值的成果。
- 技术转折点:研究证实了从“纯文本 LLM"向“多模态基础模型”的范式转移。这种转变使得 AI 系统能够更接近真实世界临床实践的复杂性(同时处理影像、文本和语音)。
- 临床整合前景:影像科等数据丰富的专科正在率先采用多模态模型进行诊断解释和报告生成。行政和教育领域则主要由 LLM 驱动,用于文档处理和教学。
- 未来展望:随着专有 AI 模型的部署、代理式 AI (Agentic AI) 的引入以及实施框架的完善,预计未来医疗 AI 研究将更加注重前瞻性评估、验证和成本效益分析。
总结:该论文通过大规模数据分析,确立了 2025 年为医疗 AI 发展的关键年份,见证了多模态基础模型的崛起和经典机器学习方法的相对衰退,预示着 AI 系统即将在更复杂的临床场景中发挥核心作用。