Distributed Safety Critical Control among Uncontrollable Agents using Reconstructed Control Barrier Functions

本文提出了一种基于重构控制障碍函数(CBF)的分布式安全关键控制方法,通过利用分布式自适应观测器获取的状态估计及预设性能自适应参数,有效解决了多智能体系统中因耦合约束和不可控智能体不确定性带来的安全控制难题,并严格保证了系统的安全性。

Yuzhang Peng, Wei Wang, Jiaqi Yan, Mengze Yu

发布于 Thu, 12 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于**“如何让一群机器人(或自动驾驶汽车)在混乱的环境中安全协作”**的故事。

想象一下,你正在指挥一支由 4 个机器人组成的探险队,其中 3 个是你能完全控制的(听话的),但第 4 个机器人是个“捣蛋鬼”(不可控的),它的行为完全随机,可能突然冲过来,也可能突然停下。你的任务是让这 4 个机器人既不能撞到障碍物,彼此之间也不能撞车,同时还要完成各自的导航任务。

这就引出了论文要解决的两个大难题:

1. 难题一:信息孤岛与“连坐”制度

在传统的控制方法中,为了保证安全,所有机器人必须遵守一个**“全局安全规则”。这个规则就像是一个巨大的数学公式,里面包含了所有**机器人的位置。

  • 比喻:这就像是一个班级里,老师规定“全班同学的平均分必须及格”。如果小明(机器人 A)想自己决定考多少分,他必须知道小红(机器人 B)和小刚(机器人 C)考了多少分,甚至还要知道那个捣蛋鬼(机器人 D)考多少分。
  • 问题:在现实中,机器人 A 只能看到自己身边的情况,它不知道远处机器人的确切位置,更不知道那个捣蛋鬼下一秒会干什么。如果非要等所有信息凑齐了才能做决定,系统就会瘫痪,或者因为信息不全而算不出安全的路径。

2. 难题二:无法控制的“捣蛋鬼”

以前的方法假设所有参与协作的机器人都是听话的。但在这个场景里,第 4 个机器人(捣蛋鬼)的行为是未知的。

  • 比喻:就像你在开车,前面的车(可控)和旁边的行人(不可控)都要遵守交通规则。以前的算法假设行人也会乖乖听指挥,但现实中行人可能突然乱跑。如果算法要求“行人也必须遵守规则”,那算法就失效了,因为你无法控制行人。

论文提出的解决方案:神奇的“替身”与“预言家”

为了解决这些问题,作者设计了一套聪明的策略,核心思想可以概括为两步:

第一步:派“预言家”去猜(分布式自适应观测器)

既然机器人 A 看不到机器人 B 和捣蛋鬼 D 的实时位置,那就让机器人 A 自己当个“预言家”。

  • 做法:每个机器人都有一个“小助手”(观测器),它根据邻居告诉它的信息,不断猜测其他机器人(包括捣蛋鬼)在哪里。
  • 效果:虽然猜的不一定 100% 准,但随着时间推移,猜得越来越准。这样,机器人 A 就不用等别人汇报,自己就能算出一个“大概的安全位置”。

第二步:制造“替身”规则(重构控制障碍函数 CBF)

这是论文最精彩的部分。既然原来的“全局安全规则”太复杂,依赖所有人的真实数据,那我们就给每个机器人定制一个**“替身规则”**。

  • 做法
    1. 机器人 A 用刚才“猜”出来的位置,构建一个**“替身安全函数”**(重构的 CBF)。
    2. 这个替身规则只依赖机器人 A 自己的信息(包括它猜到的别人位置)。
    3. 关键点:作者设计了一个特殊的“安全缓冲垫”(预设性能自适应参数)。这个缓冲垫就像一个**“安全气囊”**。
  • 比喻
    • 原来的规则是:“只要大家距离大于 1 米,就安全。”(太严格,需要知道所有人真实距离)。
    • 现在的规则是:“只要我的距离加上我的安全气囊大于 1 米,我就安全。”
    • 这个“安全气囊”的大小是动态调整的。如果猜得准,气囊就小一点;如果猜得不太准,气囊就自动变大,确保即使猜错了,也不会真的撞车。
    • 核心逻辑:只要机器人 A 守住了自己的“替身规则”,数学上就能保证原来的“全局规则”也是安全的

第三步:让“听话的”多承担一点

对于那个不可控的“捣蛋鬼”,既然管不了它,那就让其他听话的机器人多担待一点。

  • 比喻:如果那个捣蛋鬼突然往你这边冲,你的“替身规则”会立刻提醒你:“快!气囊要爆了!赶紧往旁边躲!”
  • 结果:听话的机器人会自动调整策略,主动避开捣蛋鬼,从而弥补了捣蛋鬼的不确定性。不需要所有人都听话,只要一部分听话的机器人能灵活应变,整个团队就是安全的。

总结:这就像什么?

想象你在玩一个**“盲人摸象”式的躲避球游戏**:

  • 传统方法:要求所有玩家必须手拉手,知道彼此的确切位置才能移动。一旦有人(捣蛋鬼)乱跑,游戏就崩了。
  • 本文方法
    1. 每个玩家都戴着一副**“智能眼镜”**(观测器),能根据周围人的动作预测别人的位置。
    2. 每个玩家手里都有一个**“魔法护盾”**(重构的 CBF)。这个护盾的大小会根据预测的准确度自动调整。
    3. 只要玩家守住了自己的护盾,哪怕那个捣蛋鬼乱冲,大家也不会真的撞在一起。
    4. 那些听话的玩家会主动调整位置,帮那个捣蛋鬼“挡枪”,确保团队整体安全。

论文的价值

这篇论文证明了,即使环境很乱、有不可控的捣蛋鬼、大家还互相看不见,只要用这套**“预测 + 替身规则 + 动态缓冲”的方法,就能设计出一套完全分布式**的控制系统。每个机器人只靠自己就能做出安全决策,不需要中央大脑指挥,也不需要所有人都听话。

这对于未来的自动驾驶车队(其中可能有乱穿马路的行人)、无人机编队(其中可能有信号丢失的无人机)等场景具有非常重要的指导意义。