CoLC: Communication-Efficient Collaborative Perception with LiDAR Completion

本文提出了 CoLC 框架,通过前景感知点采样、补全增强早期融合及密度引导双重对齐策略,在显著降低通信成本的同时实现了高效的协同感知与场景完整性恢复。

Yushan Han, Hui Zhang, Qiming Xia, Yi Jin, Yidong Li

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

想象一下,自动驾驶汽车就像是一群在高速公路上开车的“盲人”。每辆车都有自己的雷达(激光雷达),但雷达有盲区,而且受限于天气或距离,看不清远处的东西。

为了解决这个问题,科学家提出了“协作感知”:让车与车之间互相“聊天”,分享彼此看到的景象。但这有个大难题:带宽限制。如果每辆车都把看到的所有原始数据(成千上万个点)发给别人,网络会瞬间拥堵,就像在狭窄的乡间小路上强行塞进一辆卡车,根本跑不动。

这篇论文提出的 CoLC,就像是一个聪明的“交通指挥官”,它想出了一个绝妙的办法:只发精华,然后靠“脑补”还原全景

我们可以把 CoLC 的工作流程想象成三个步骤:

1. 聪明的“选图”策略 (FAPS):只发关键帧

以前的方法要么发“所有点”(太慢),要么只发“车和人”(前景)。但论文发现,如果只发车和人,就像只给你看一张只有主角的照片,你根本不知道背景是什么,容易把车认错位置。

CoLC 的做法是:

  • 主角要精挑细选:对于路上的车和人(前景),它用一种叫“最远点采样”的方法,只挑出最能代表物体形状的几个关键点。就像画素描时,只勾勒物体的轮廓线,而不是把整个物体涂黑。
  • 背景要随机撒网:对于周围的路面、树木(背景),它随机挑一些点。这些点虽然不重要,但能告诉你“车是在路上,不是在天上”,起到定位和参考的作用。
  • 结果:发送的数据量大大减少,但保留了“物体长什么样”和“物体在哪”的核心信息。

2. 神奇的“脑补”技术 (CEEF):从草图还原高清图

当接收方(比如你的车)收到这些稀疏的、断断续续的点云时,画面看起来像是一个只有几个点的“草图”,非常模糊。这时候,CoLC 启动了一个AI 修复师(基于 LiDAR 补全技术)。

  • 比喻:这就像你收到了一张只有几根线条的漫画草图,但你的大脑(AI 模型)非常聪明,它根据经验,自动把线条之间空缺的部分“脑补”完整,还原出一张清晰、连贯的 3D 场景图。
  • 作用:它把稀疏的“草图”变成了密集的“高清图”,然后把这些补全的信息和自己看到的结合起来,确保没有遗漏任何细节。

3. 严格的“校对”机制 (DGDA):确保脑补不跑偏

AI“脑补”虽然厉害,但有时候可能会“想太多”,把路边的石头脑补成一辆车。为了防止这种情况,CoLC 在训练时加入了一个严格的校对员

  • 双重对齐:它要求 AI 在“语义”(这是什么物体)和“几何”(这个物体长什么样、朝向哪)两个维度上,必须和完美的真实场景保持高度一致。
  • 结果:这就像老师批改作业,不仅要看答案对不对,还要看解题步骤(几何结构)是否合理,确保 AI 的“脑补”既准确又靠谱。

总结:为什么 CoLC 很厉害?

  • 省钱又高效:它不需要传输海量的原始数据,就像寄信时只寄“关键摘要”,接收方再根据摘要“还原”全文,大大节省了网络流量。
  • 谁都能用:以前的协作方法,如果两辆车用的雷达型号不一样(比如一个用激光雷达,一个用摄像头,或者算法不同),它们就很难“对话”。但 CoLC 直接传输原始点云,不管大家用什么“方言”(模型),都能听懂,非常灵活。
  • 效果拔群:实验证明,即使只传输很少的数据,CoLC 的感知效果依然能媲美甚至超过那些传输全部数据的笨重方法。

一句话总结:CoLC 就像是一个高明的外交官,它懂得在资源有限(带宽窄)的情况下,只传递最核心的情报(稀疏采样),并利用强大的想象力(AI 补全)还原出完整的战场局势,让自动驾驶汽车在复杂的交通环境中看得更清、跑得更稳。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →