Fast Low-light Enhancement and Deblurring for 3D Dark Scenes

本文提出了 FLED-GS 框架,通过交替进行去模糊与噪声感知 3D 高斯泼溅重建,并引入中间亮度锚点防止噪声放大,实现了在低光照、含噪且运动模糊的 3D 场景中比现有方法快 21 倍训练和 11 倍渲染的高效恢复。

Feng Zhang, Jinglong Wang, Ze Li, Yanghong Zhou, Yang Chen, Lei Chen, Xiatian Zhu

发布于 2026-03-10
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

想象一下,你试图在伸手不见五指的黑夜里,一边被风吹得摇摇晃晃(运动模糊),一边还要给相机里的照片“洗”出来,并且还要能 360 度无死角地欣赏这个场景。这听起来是不是像是一个不可能完成的任务?

这篇论文提出的 FLED-GS,就是为了解决这个“黑夜 + 抖动 + 噪点”的三重噩梦而设计的超级助手。

我们可以用三个生动的比喻来理解它的工作原理:

1. 核心难题:为什么以前的方法不行?

以前的技术就像是一个急躁的厨师

  • 直接提亮:如果直接把一张漆黑且满是雪花点(噪点)的照片强行拉亮,就像把一杯浑浊的泥水直接倒进强光下,不仅水变亮了,里面的脏东西(噪点)也会变得极其刺眼,甚至把原本模糊的轮廓(细节)都冲没了。
  • 分步处理:如果先让一个 2D 修图软件把照片修好,再拿去建 3D 模型,就像先给一张模糊的照片修图,再拿修好的图去猜 3D 结构。因为照片里的模糊和噪点是互相纠缠的,分步处理会导致“修图时把细节修没了,建 3D 时又因为细节缺失而猜错”,最后产生很多奇怪的伪影(Artifacts)。

2. FLED-GS 的绝招:像“爬楼梯”一样恢复

FLED-GS 不想一步登天,它选择爬楼梯

  • 设置“中间站”(亮度锚点)
    想象你要从漆黑的地下室走到明亮的阳光房。如果直接跳过去,你会摔得很惨。FLED-GS 在地下室和阳光房之间,设置了几个中间平台(亮度锚点)
    它不是一下子把黑夜变成大白天,而是先让画面变成“微亮”,再变成“半亮”,最后才是“全亮”。每上一个台阶,画面就清晰一点,噪点就少一点。这样,噪点就不会因为突然的强光而“爆炸”了。

  • 交替进行的“双人舞”
    在这个爬楼梯的过程中,它玩起了“你帮我,我帮你”的接力赛:

    1. 先锐化(去模糊):它先用一个现成的 2D 工具,把当前这一层稍微亮一点的画面里的“抖动模糊”去掉,让线条变清晰。
    2. 再重建(去噪):然后,它利用 3D 技术(3DGS)根据这些清晰的线条,重新构建 3D 场景。在这个过程中,它会专门派一个**“噪点侦探”**(噪声估计模块)出来,把画面里残留的雪花点(噪点)悄悄擦掉,只留下干净的 3D 模型。
    3. 进入下一层:这个被擦干净、变清晰的 3D 模型,就变成了下一层(更亮一点)的“参考图”。

    就这样,“去模糊 -> 建 3D -> 去噪 -> 变亮 -> 再去模糊”,循环往复,直到画面完全清晰明亮。

3. 为什么它这么快?(21 倍速 vs 11 倍速)

以前的方法(比如 LuSh-NeRF)像是在用算盘算微积分,每一步都要反复计算,还要模拟很多条光线,速度慢得像蜗牛。

FLED-GS 则像是换了一台超级跑车

  • 它使用了 3D Gaussian Splatting (3DGS) 技术。你可以把它想象成用无数个彩色的、半透明的“小光点”来拼凑场景,而不是用复杂的数学公式去“画”每一根光线。
  • 这种“小光点”拼凑法,让它在训练(学习场景)时快了 21 倍,在渲染(生成新视角图片)时快了 11 倍
  • 这就意味着,以前需要等一天才能生成的夜景 3D 漫游,现在喝杯咖啡的时间(40 多分钟)就搞定了。

总结

简单来说,FLED-GS 就是一个聪明的、有耐心的 3D 修复大师
它不蛮干,而是通过**“分步走”(爬楼梯)来避免噪点失控,通过“边修边建”(交替循环)来互相纠正错误,最后利用“光点拼凑”(3DGS)技术,实现了又快又好**的夜间 3D 场景重建。

它的成果是: 即使在又黑、又抖、又脏的原始照片里,也能还原出清晰、明亮、可以 360 度观看的 3D 世界,而且速度极快,非常适合未来的自动驾驶夜间导航或 VR 沉浸式体验。