RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

Das Paper stellt RL-100 vor, ein leistungsfähiges Reinforcement-Learning-Framework für Roboter, das durch die Kombination von Diffusion-Policies mit PPO und Konsistenz-Distillation in acht realen Aufgaben eine 100-prozentige Erfolgsrate erzielt und dabei menschliche Operateure in Geschwindigkeit und Robustheit übertrifft.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe XuWed, 11 Ma🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

Die Arbeit stellt FALCON vor, ein neues Paradigma für Vision-Language-Action-Modelle, das durch die Integration von räumlichen Grundwissen aus 3D-Spatial-Foundation-Modellen in den Aktionskopf die Lücke zwischen 2D-Vision und 3D-Aktion schließt und damit in Simulationen sowie realen Umgebungen neue Maßstäbe in Bezug auf Generalisierung und Robustheit setzt.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

Revisiting Replanning from Scratch: Real-Time Incremental Planning with Fast Almost-Surely Asymptotically Optimal Planners

Diese Arbeit widerlegt die Annahme, dass reaktives Neuplanen zwingend eine Aktualisierung bestehender Pläne erfordert, und zeigt, dass stattdessen eine Abfolge unabhängiger Probleme mit schnellen, fast sicher asymptotisch optimalen Algorithmen wie EIT* effizienter gelöst werden kann.

Mitchell E. C. Sabbadini, Andrew H. Liu, Joseph Ruan, Tyler S. Wilson, Zachary Kingston, Jonathan D. GammellWed, 11 Ma💻 cs

From Demonstrations to Safe Deployment: Path-Consistent Safety Filtering for Diffusion Policies

Die Arbeit stellt PACS vor, einen sicherheitsfilternden Ansatz für Diffusions-Policies, der durch pfadkonsistente Bremsmanöver und mengenbasierte Erreichbarkeitsanalysen formale Sicherheitsgarantien in dynamischen Umgebungen bietet, ohne dabei die Aufgabenerfolgsrate im Vergleich zu reaktiven Methoden wie Control Barrier Functions signifikant zu beeinträchtigen.

Ralf Römer, Julian Balletshofer, Jakob Thumm, Marco Pavone, Angela P. Schoellig, Matthias AlthoffWed, 11 Ma⚡ eess

Bootstrap Dynamic-Aware 3D Visual Representation for Scalable Robot Learning

Das Paper stellt AFRO vor, ein selbstüberwachtes Framework, das durch die Modellierung von Zustands-Aktions-Dynamiken in einem gemeinsamen latenten Raum ohne explizite geometrische Rekonstruktion oder Aktionsüberwachung dynamische Bewusstsein 3D-Repräsentationen lernt und so die Manipulationserfolgsraten von Robotern in simulierten und realen Umgebungen erheblich verbessert.

Qiwei Liang, Boyang Cai, Minghao Lai, Sitong Zhuang, Tao Lin, Yan Qin, Yixuan Ye, Jiaming Liang, Renjing XuWed, 11 Ma💻 cs

UniBYD: A Unified Framework for Learning Robotic Manipulation Across Embodiments Beyond Imitation of Human Demonstrations

Das Paper stellt UniBYD vor, ein einheitliches Framework, das durch dynamisches Reinforcement Learning und eine morphologische Repräsentation Roboter-Manipulationsstrategien entwickelt, die über die reine Nachahmung menschlicher Demonstrationen hinausgehen und sich an diverse Roboter-Handkonfigurationen anpassen, was zu einer signifikanten Leistungssteigerung auf dem neu eingeführten UniManip-Benchmark führt.

Tingyu Yuan, Biaoliang Guan, Wen Ye, Ziyan Tian, Yi Yang, Weijie Zhou, Zhaowen Li, Yan Huang, Peng Wang, Chaoyang Zhao, Jinqiao WangWed, 11 Ma💻 cs

A 26-Gram Butterfly-Inspired Robot Achieving Autonomous Tailless Flight

Das 26 Gramm schwere, schmetterlingsinspirierte Robotersystem „AirPulse" demonstriert erstmals den autonomen, geschlossenen Regelkreis-Flug einer schwanzlosen Plattform durch Nachahmung biologischer Flügelschläge und eine hierarchische Steuerungsarchitektur, die stabile Manöver in einem bisher kaum erforschten aerodynamischen Regime ermöglicht.

Weibin Gu, Chenrui Feng, Lian Liu, Chen Yang, Xingchi Jiao, Yuhe Ding, Xiaofei Shi, Chao Gao, Alessandro Rizzo, Guyue ZhouWed, 11 Ma💻 cs

Reactive Slip Control in Multifingered Grasping: Hybrid Tactile Sensing and Internal-Force Optimization

Diese Arbeit stellt einen hybriden lernbasierten und modellgestützten Ansatz vor, der multimodale Taktile Sensoren mit einer internen Kraftoptimierung kombiniert, um das Abrutschen von Objekten in multifingrigen Greifern durch eine geschlossene Regelkreisstabilisierung mit einer Gesamtverzögerung von unter 50 ms reaktiv zu verhindern.

Théo Ayral, Saifeddine Aloui, Mathieu GrossardWed, 11 Ma⚡ eess

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

Die Arbeit stellt Pri4R vor, eine einfache Methode, die Vision-Language-Action-Modelle durch das Training mit privilegierten 4D-Punktverläufen in die Lage versetzt, physikalische Welt-Dynamiken implizit zu erlernen und so die Leistung bei Manipulationsaufgaben ohne zusätzliche Inferenzkosten erheblich zu steigern.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong KimWed, 11 Ma🤖 cs.AI

SPARC: Spatial-Aware Path Planning via Attentive Robot Communication

Die Arbeit stellt SPARC vor, ein dezentralisiertes Multi-Roboter-Pfadplanungssystem, das durch eine relationenverstärkte Multi-Head-Aufmerksamkeitsmechanik (RMHA) räumliche Nähe in die Kommunikation integriert und damit in überfüllten Umgebungen sowie bei der Generalisierung auf deutlich größere Roboterschwärme signifikant bessere Erfolgsraten erzielt als bestehende Methoden.

Sayang Mu, Xiangyu Wu, Bo AnWed, 11 Ma🤖 cs.AI

HMR-1: Hierarchical Massage Robot with Vision-Language-Model for Embodied Healthcare

Die Arbeit stellt HMR-1 vor, ein hierarchisches Massage-Robotersystem, das auf einem multimodalen Datensatz namens MedMassage-12K und feinabgestimmten Vision-Language-Modellen basiert, um präzise Akupunkturpunkterkennung und Bewegungssteuerung für die embodied Healthcare zu ermöglichen.

Rongtao Xu, Mingming Yu, Xiaofeng Han, Yu Zhang, Kaiyi Hu, Zhe Feng, Zenghuang Fu, Changwei Wang, Weiliang Meng, Xiaopeng ZhangWed, 11 Ma💻 cs