Multimodal Laryngoscopic Video Analysis for Assisted Diagnosis of Vocal Fold Paralysis

本文提出了一种名为 MLVAS 的多模态喉镜视频分析系统,该系统通过融合音频关键词检测与基于扩散模型优化的视频声门分割技术,自动提取关键视频片段并生成客观的声带运动指标,从而辅助临床医生对声带麻痹进行更可靠的诊断。

Yucong Zhang, Xin Zou, Jinshan Yang, Wenjun Chen, Juan Liu, Faya Liang, Ming Li

发布于 Tue, 10 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章介绍了一个名为 MLVAS 的“智能喉镜视频分析系统”。简单来说,它就像是一位拥有“顺风耳”和“火眼金睛”的超级医疗助手,专门帮助医生快速、准确地诊断“声带麻痹”(就是声带动不了,导致说话声音变了或者吞咽困难)。

为了让你更容易理解,我们可以把整个系统想象成一个**“智能视频剪辑师 + 侦探”**的组合。

1. 为什么要造这个系统?(痛点)

想象一下,医生给病人做喉镜检查时,会录下一段长长的视频。

  • 问题一(太长了): 视频里有很多没用的片段,比如医生刚把镜子伸进去还没找到声带的时候,或者病人还没开始说话的时候。医生得像看大海捞针一样,手动把这些没用的剪掉,只留下病人发声、声带振动的精彩片段。这非常耗时。
  • 问题二(太主观): 医生靠肉眼观察,有时候会看走眼,或者因为太累而漏掉细节。而且,光看视频很难分清到底是“左边声带”坏了,还是“右边声带”坏了。
  • 问题三(数据少): 这种病人的视频很难收集(因为涉及隐私),导致训练 AI 的“教材”不够多。

2. 这个系统是怎么工作的?(核心功能)

MLVAS 系统分为三个主要步骤,我们可以把它比作**“听音辨位”、“精修画面”和“综合破案”**。

第一步:听音辨位(自动剪辑)

  • 传统做法: 医生要盯着屏幕,等病人开始说话。
  • MLVAS 的做法: 系统里装了一个**“超级耳朵”(关键词识别模型)**。
    • 医生会让病人发一个特定的音(类似“诶——")。
    • 系统就像 Siri 或 Google 助手一样,时刻监听。一旦听到这个特定的声音,它就立刻知道:“好戏开始了!”
    • 它会自动把视频里只有病人发声、声带在振动的那几秒“高光时刻”剪辑出来,把前面找镜子的、后面没声音的垃圾片段统统扔掉。
    • 比喻: 就像你用手机看直播,系统自动帮你把“主播开始唱歌”的那一段剪出来,直接跳过前面的广告和废话。

第二步:精修画面(看清细节)

剪出来的视频里,声带(喉部)有时候还是看不清,或者 AI 误以为那是声带(比如把背景噪音当成了声带)。

  • 传统做法: 用普通的 AI 模型去分割(把声带从背景里抠出来),但容易出错,经常把没有声带的画面也标成有声带(这叫“误报”)。
  • MLVAS 的做法: 它用了一套**“双重保险”技术**。
    1. 第一重(U-Net): 先用一个普通的 AI 模型大概把声带轮廓画出来。
    2. 第二重(扩散模型): 这就像是一个**“修图大师”**。如果第一重画错了(比如把背景当成了声带),这个“修图大师”会根据扩散模型的原理,把错误的地方“擦掉”或“修正”,只保留真正的声带。
    • 比喻: 就像画画,先打个草稿(U-Net),发现画歪了,再用橡皮擦和画笔精细修改(扩散模型),确保画出来的声带轮廓非常精准,不会把背景里的噪点当成声带。

第三步:综合破案( multimodal 诊断)

现在,系统有了清晰的视频对应的声音

  • 听声音(音频分析): 系统使用了一个在海量声音数据上训练过的**“预训练大模型”(Dasheng)**。它不需要很多病人数据就能听懂声音里的病理特征。这就像是一个听过全世界各种声音的专家,哪怕只听到一小段,也能听出声音是不是“哑”了。
  • 看动作(视频分析): 系统会计算声带振动的角度。它不仅能算出声带张开了多大,还能分别计算左边和右边声带的摆动幅度
    • 关键创新: 以前的系统只能算“两边加起来”的总角度,分不清是哪边坏了。MLVAS 能算出左声带摆动角度(LVFDyn)右声带摆动角度(RVFDyn)
    • 比喻: 就像两个人一起跳舞,如果一个人腿断了(麻痹),他就不怎么动。系统通过比较左右两边的“舞步幅度”,就能精准判断是“左腿”坏了还是“右腿”坏了。

3. 最终成果:它能做什么?

  1. 自动诊断: 系统能告诉医生:“这个病人有声带麻痹(VFP)”,准确率很高。
  2. 精准定位: 系统能进一步说:“是左边声带麻痹”还是"右边声带麻痹”。这对医生制定手术方案至关重要。
  3. 可视化报告: 系统会生成图表(比如声带振动波形图),让医生一眼就能看出哪边的声带“不动了”,就像看心电图一样直观。

总结

这就好比给医生配了一个**“全能助手”**:

  • 它帮医生省时间(自动剪掉垃圾视频);
  • 它帮医生练火眼金睛(用高级算法修正图像,看清细节);
  • 它帮医生听音辨病(利用预训练大模型分析声音);
  • 它帮医生分清左右(通过分别计算左右声带的动作,精准定位病灶)。

最终,这个系统让声带麻痹的诊断变得更快、更准、更客观,让病人能更快得到正确的治疗。