From Volume Rendering to 3D Gaussian Splatting: Theory and Applications

本文综述了从体渲染到 3D 高斯泼溅(3DGS)的理论演进与应用,在介绍其高效光栅化原理及新视角合成优势的同时,深入探讨了其内存占用、光照烘焙及次级光线效应等局限性,并总结了其在表面重建、数字人建模、动画及内容生成等领域的广泛应用。

Vitor Pereira Matias, Daniel Perazzo, Vinicius Silva, Alberto Raposo, Luiz Velho, Afonso Paiva, Tiago Novello

发布于 2026-03-02
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文其实是在讲计算机图形学领域的一场**“革命”:我们如何把一堆普通的照片,变成可以在任何角度观看、甚至能跑能跳的3D 世界**。

以前,我们要么用很慢的“神经网络”(NeRF)来模拟光线,要么用传统的“多边形网格”(像乐高积木一样拼物体)。但这篇论文介绍的主角叫**"3D 高斯泼溅”(3D Gaussian Splatting,简称 3DGS),它就像是一个“会飞的彩色光点云”**,既快又美。

下面我用几个生活中的比喻来拆解这篇论文的核心内容:

1. 核心概念:从“迷雾”到“光点雨”

想象一下,你想重建一个房间。

  • 以前的方法(NeRF):就像是在房间里充满了一团看不见的迷雾。你需要问这团迷雾:“这里有没有物体?是什么颜色?”计算机要在这个巨大的迷雾里到处采样,非常慢,而且很难实时看到效果。
  • 3DGS 的方法:它不再用迷雾,而是直接往房间里撒了一把“魔法光点”(也就是 3D 高斯球)。
    • 每个光点都有自己的位置大小形状(有的扁,有的圆)和颜色
    • 这些光点像雨滴一样,直接“泼”在屏幕上。
    • 优势:因为光点只存在于有物体的地方(不像迷雾要填满整个空间),所以计算机处理起来极快,能像玩游戏一样实时渲染出逼真的画面。

2. 它是如何工作的?(训练过程)

这个过程就像是在玩一个**“猜谜游戏”**:

  1. 起步:先给你几张照片,计算机用算法(SfM)找出照片里物体的大概位置,撒下一层稀疏的“种子光点”。
  2. 试错:计算机把这些光点“投影”到屏幕上,看看拼出来的图和你给的照片像不像。
  3. 调整
    • 如果拼出来的图太模糊,它就把光点变大(分裂)或者复制更多光点(克隆)去填补细节。
    • 如果某个光点一直没用(比如它飘在空荡荡的房间里),它就把那个光点删掉(修剪)。
    • 通过不断的“调整 - 对比 - 再调整”,这些光点最终会完美地贴合物体的形状和颜色。

3. 现在的挑战与升级(论文的“补丁”部分)

虽然 3DGS 很快很美,但它也有几个“小毛病”,论文里介绍了很多聪明的解决办法:

  • 内存太大(太占地方)

    • 比喻:为了拼出一个逼真的杯子,可能需要 50 万个光点,这太占电脑内存了。
    • 解决:就像把“散装大米”换成“压缩饼干”。新的方法用更少的点,或者把纹理信息存进一个小公式里,大大减少了体积。
  • 反光和阴影(像塑料假人)

    • 比喻:原来的 3DGS 把光线“烤”在了光点上。如果你换个角度看,或者换个灯光,物体看起来还是老样子,像涂了蜡的假人,没有真实的光影变化。
    • 解决:给光点加上**“物理皮肤”**(比如材质、粗糙度)。现在的光点能模拟真实的反光,甚至能计算光线在物体之间的反弹(二次反射),让金属看起来像金属,水看起来像水。
  • 从照片变模型(表面重建)

    • 比喻:原来的光点是一团雾,很难直接把它变成可以打印的 3D 模型(网格)。
    • 解决:让光点**“变扁”**,像硬币一样(2D 圆盘),或者结合数学公式,把这些光点“捏”成光滑的 3D 模型表面。

4. 它能做什么?(应用场景)

这篇论文展示了 3DGS 的超能力:

  • 复活动态物体:以前只能做静止的雕像,现在可以模拟水流、爆炸、甚至人的动作。光点被赋予了物理属性,可以像真实的粒子一样流动、碰撞。
  • 数字人(Avatar):可以生成逼真的 3D 虚拟人。不仅能换衣服、换表情,还能在不同的灯光下(比如从白天变到晚上)自动调整光影,非常自然。
  • 从很少的照片重建:以前需要几十张照片才能重建,现在哪怕只有几张甚至一张照片,配合 AI 预测,也能“脑补”出完整的 3D 场景。
  • AI 生成内容:结合现在的 AI 绘画(扩散模型),你可以输入文字(比如“一只戴帽子的青蛙”),AI 就能直接生成一个 3D 的、可旋转的青蛙模型。

总结

这篇论文就像是一份**"3D 高斯泼溅”的进化指南**。它告诉我们:
以前我们是用慢吞吞的迷雾来模拟世界,现在我们可以用成千上万颗聪明的彩色光点来构建世界。这些光点不仅跑得快(实时渲染),而且越来越聪明(能处理光影、动态、稀疏数据)。

这项技术正在让3D 内容的创作变得像拍照片一样简单,未来我们看到的虚拟世界、游戏、甚至元宇宙,可能都是由这些“光点雨”构成的。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →