Denoising as Path Planning: Training-Free Acceleration of Diffusion Models with DPCache

该论文提出了名为 DPCache 的免训练加速框架,通过将扩散模型采样加速建模为全局路径规划问题,利用动态规划从校准集中构建路径感知成本张量以自动选择最优关键时间步序列,从而在显著减少计算开销的同时有效避免误差累积并提升生成质量。

Bowen Cui, Yuanbin Wang, Huajiang Xu, Biaolong Chen, Aixi Zhang, Hao Jiang, Zhengzheng Jin, Xu Liu, Pipei Huang

发布于 2026-03-09
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 DPCache 的新方法,旨在让 AI 画图(生成图像和视频)变得更快,同时不牺牲画质,而且不需要重新训练模型

为了让你轻松理解,我们可以把 AI 画图的过程想象成**“从山顶走到山脚”,或者“画一幅复杂的素描”**。

1. 背景:为什么现在的 AI 画图这么慢?

想象一下,AI 要画一张图,就像是一个画家在一张满是噪点(像电视雪花)的纸上,一步步把噪点擦掉,慢慢显现出清晰的图像。

  • 传统做法:画家非常谨慎,每一步都要停下来仔细计算、擦除一点点,总共要走 50 步 甚至更多才能完成。这就像走迷宫,每一步都算得清清楚楚,所以画得准,但太慢了
  • 现有的加速方法:为了快,以前的方法要么是“固定步数”(比如每 5 步跳过一次),要么是“看一步算一步”(觉得这一步简单就跳过)。
    • 问题:这就好比你在爬山时,不管前面是悬崖还是平地,都机械地每 5 步跳一次。结果可能是:在平地上跳得很爽,但在悬崖边(关键步骤)直接跳空了,导致最后画出来的图模糊、变形,或者完全不像(比如把斑马画成两条腿)。

2. 核心创意:把“加速”变成“规划路线”

这篇论文的作者提出了一个聪明的想法:不要盲目地跳步,而是先规划一条“最优路线”。

他们把加速过程比作**“路径规划” (Path Planning)**。就像导航软件(如高德、Google Maps)在出发前会帮你规划一条既快又不堵车的路线一样,DPCache 在正式画图前,会先做一个小小的“模拟演习”。

它的三个关键步骤:

第一步:小范围试跑(校准阶段)

  • 比喻:在正式出发前,先找几个典型的“样本”(比如 10 张图),让 AI 完整地走一遍 50 步,看看每一步的“风景”(特征)是怎么变化的。
  • 发现:AI 发现,有些步骤之间变化很小(像走平地),可以大胆跳过;但有些步骤变化巨大(像过独木桥),绝对不能跳过。
  • 成果:它画出了一张**“代价地图” (Path-Aware Cost Tensor)**。这张地图记录了:如果你从第 10 步直接跳到第 20 步,中间会丢失多少信息?这个“丢失的代价”取决于你之前是从哪一步跳过来的。

第二步:动态规划找路(核心算法)

  • 比喻:有了这张“代价地图”,DPCache 就像一个超级聪明的导航员,使用动态规划 (Dynamic Programming) 算法。它不是只看眼前(比如“现在跳过这一步很省时间”),而是全局考虑(“如果现在跳过,后面会不会导致整张图崩塌?”)。
  • 结果:它计算出了一条**“黄金路线”**。这条路线只保留了最关键的几个“检查点”(关键步),中间的空档则通过“猜”(利用缓存的特征进行预测)来填补。
    • 关键点:它保证在关键节点(比如画眼睛、画轮廓时)一定停下来认真算,而在平淡的过渡期(比如画天空渐变时)就大胆跳过。

第三步:正式执行(推理阶段)

  • 比喻:正式画图时,AI 只在“黄金路线”上的关键节点停下来认真计算。对于中间跳过的步骤,它直接利用之前存好的“缓存”和简单的数学公式(泰勒展开)快速“猜”出结果。
  • 效果:因为大部分时间都在“猜”(计算量极小),只有少数关键步在“算”,所以速度快了好几倍

3. 为什么它比以前的方法好?

  • 以前的方法(固定或局部自适应)
    • 就像**“无脑跳”**:不管前面是悬崖还是平地,都按固定节奏跳。结果容易掉进坑里(画质崩坏)。
    • 或者**“短视”**:只看眼前这一步能不能跳,结果为了省这一步,导致后面几步全错了,越错越远。
  • DPCache(全局路径规划)
    • 就像**“老司机”**:它知道哪里该快,哪里该慢。它知道为了整体不翻车,必须在某些地方多花点时间,而在其他地方可以极速通过。
    • 结果:在同样的速度下,它画出的图更清晰、更准确;甚至在某些情况下,它画得比“慢慢走”的原始 AI 还要好(因为去除了原始路径中的一些微小抖动)。

4. 实验成果:真的这么快吗?

作者在最新的顶级模型(如 FLUX, HunyuanVideo)上做了测试:

  • 速度:最快提升了 4.87 倍(原来画一张图要 10 秒,现在只要 2 秒)。
  • 质量:不仅没有变差,反而在人类喜欢的程度(ImageReward)上超过了原始慢速模型。
  • 内存:它非常聪明,只缓存最关键的一层信息,所以不占额外显存,这对大模型非常重要。

总结

DPCache 就像给 AI 画家装了一个**“智能导航系统”
它不再让画家机械地一步步走,而是先花一点点时间研究地形,规划出一条
“既快又稳”**的捷径。在关键路口停下来仔细画,在平坦大道上快速滑过。

一句话总结
不用重新训练,不用多花钱,通过“全局规划路线”和“智能缓存”,让 AI 画图像坐高铁一样快,但画质依然像坐头等舱一样好。