Omnidirectional Humanoid Locomotion on Stairs via Unsafe Stepping Penalty and Sparse LiDAR Elevation Mapping

该论文提出了一种结合连续不安全步态惩罚机制与稀疏激光雷达高程图优化(含时空置信度衰减及边缘引导 U-Net)的单阶段训练框架,实现了双足机器人在楼梯及复杂户外地形上的安全、全向稳定行走。

Yuzhi Jiang, Yujun Liang, Junhao Li, Han Ding, Lijun Zhu

发布于 Tue, 10 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

想象一下,你让一个机器人去爬楼梯。如果这个机器人长得像人(有两条腿、一个高重心),它其实比四脚动物(比如狗)更难保持平衡,就像让一个踩着高跷的人去走独木桥一样。

这篇论文就是为了解决人形机器人如何在楼梯上安全、灵活地上下左右移动而写的。作者们主要解决了两个大麻烦:

1. 机器人的“视野盲区”问题

以前的做法:
以前的机器人通常只在头上装一个像手机前置摄像头一样的深度相机。这就像你只盯着正前方看,左右两边和背后全是瞎的

  • 后果: 机器人想侧着走或者倒着走时,因为看不见脚下的台阶,根本不敢动,或者容易踩空摔倒。

这篇论文的妙招:
他们给机器人装了一个360度全景的激光雷达(LiDAR),就像给机器人戴了一副“全景夜视眼镜”。

  • 难点: 激光雷达看到的点很稀疏(像雨点一样稀稀拉拉),而且楼梯的垂直面(踢面)经常扫不到点,导致地图看起来坑坑洼洼,甚至把楼梯边缘“抹平”了。
  • 解决方案(EGAU 网络): 作者设计了一个特殊的 AI 网络(叫 EGAU),它像一个**“修图大师”**。
    • 它不仅能补全那些看不见的点,还能专门识别楼梯的边缘
    • 比喻: 就像你画楼梯时,普通画家可能会把台阶边缘画得圆乎乎、模糊不清;但这个 AI 知道“这里必须有个直角”,所以它强行把边缘修得锐利清晰,确保机器人知道哪里是台阶,哪里是悬崖。

2. 机器人的“试错成本”太高

以前的做法:
以前的训练方法有点像“撞了才知道疼”。机器人只有当脚真的踩空了或者踢到台阶踢面了,系统才会给它一个惩罚(扣分)。

  • 后果: 这种反馈太晚了!就像学骑自行车,只有摔倒了才告诉你“刚才那个动作不对”。机器人学得很慢,而且为了安全,它可能会变得畏手畏脚,不敢走。

这篇论文的妙招:
作者设计了一种**“提前预警”机制(密集的不安全步罚)**。

  • 原理: 在机器人的脚还没碰到危险区域,但快要靠近的时候,系统就开始给它“扣分”了。
  • 比喻: 这就像你开车过窄路,以前的教练是等你蹭到墙了才喊“停”;现在的教练是当你离墙还有 10 厘米时,就不断提醒你“太近了,快打方向!”。
  • 效果: 机器人学会了主动调整脚步,还没踩空就提前把脚抬起来或移开。这让它学得快,而且走得更稳、更安全。

3. 一个“自我保护”的小秘密

在机器人移动时,激光雷达正下方(机器人身体底下)是扫不到的(盲区)。如果机器人原地转圈或慢走,以前的系统会以为底下的地形“过期了”而把数据删掉,导致机器人突然“失忆”。

  • 解决方案: 作者加了一个**“安全保护区”。只要脚在身体正下方,系统就锁定**那里的数据,不让它消失。这就像给机器人的脚下铺了一块“记忆地毯”,不管它怎么动,脚下的地形信息永远都在。

实验结果:真的管用吗?

  • 模拟测试: 在电脑模拟里,这个机器人爬楼梯的安全率接近 100%。不管是正着上、倒着下,还是侧着走,它都能稳稳当当。
  • 真实世界: 作者把这个机器人(宇树 G1)带到现实世界测试。它成功地在户外走了 400 多米,跨越了下坡、平地、楼梯等各种地形,甚至在人多的地方也没摔倒。
  • 结论: 这套方法不仅让机器人“看得全”(360 度地图),还让它“走得稳”(提前预警),真正实现了从电脑模拟到现实世界的完美跨越。

一句话总结:
这篇论文给机器人装上了360 度全景眼,配了一个懂画图的修图师,还给它请了一位会提前提醒的教练,让人形机器人终于能像人一样,自信满满地上下楼梯、横着走路了!