RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

O artigo apresenta o RL-100, um framework de aprendizado por reforço no mundo real baseado em políticas visuomotoras de difusão que unifica imitação e reforço, alcançando 100% de sucesso em diversas tarefas robóticas complexas e demonstrando alta robustez e eficiência em cenários de implantação prática.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe XuWed, 11 Ma🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

O artigo apresenta o FALCON, um novo paradigma que integra priores espaciais 3D ricos em modelos de fundação diretamente no cabeçalho de ação de modelos Visão-Linguagem-Ação, permitindo raciocínio espacial robusto e desempenho de ponta em tarefas do mundo real sem comprometer o alinhamento linguístico ou exigir reestruturação arquitetural.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

Revisiting Replanning from Scratch: Real-Time Incremental Planning with Fast Almost-Surely Asymptotically Optimal Planners

Este artigo desafia a premissa de que o replanejamento reativo exige a atualização de planos existentes, demonstrando que algoritmos de planejamento quase certamente assintoticamente ótimos (ASAO), como EIT* e AORRTC, podem resolver problemas incrementais de forma mais eficiente ao tratar cada consulta como um problema independente, encontrando trajetórias globais consistentes e de alta qualidade em ambientes dinâmicos sem a necessidade de reutilização explícita de planos.

Mitchell E. C. Sabbadini, Andrew H. Liu, Joseph Ruan, Tyler S. Wilson, Zachary Kingston, Jonathan D. GammellWed, 11 Ma💻 cs

SynHLMA:Synthesizing Hand Language Manipulation for Articulated Object with Discrete Human Object Interaction Representation

O artigo apresenta o SynHLMA, um novo framework que gera sequências de manipulação de mãos para objetos articulados a partir de instruções em linguagem natural, utilizando uma representação discreta de interação mão-objeto e uma perda consciente das juntas para garantir a coerência dinâmica e funcionalidade em tarefas como geração, previsão e interpolação de gestos.

Wang zhi, Yuyan Liu, Liu Liu, Li Zhang, Ruixuan Lu, Dan GuoWed, 11 Ma🤖 cs.AI

From Demonstrations to Safe Deployment: Path-Consistent Safety Filtering for Diffusion Policies

O artigo propõe o filtro de segurança PACS, que utiliza frenagem consistente com o trajeto e análise de alcançabilidade baseada em conjuntos para garantir segurança formal em políticas de difusão sem comprometer a taxa de sucesso das tarefas ou desviar da distribuição de treinamento.

Ralf Römer, Julian Balletshofer, Jakob Thumm, Marco Pavone, Angela P. Schoellig, Matthias AlthoffWed, 11 Ma⚡ eess

Bootstrap Dynamic-Aware 3D Visual Representation for Scalable Robot Learning

O artigo apresenta o AFRO, um framework de aprendizado auto-supervisionado que gera representações 3D dinâmicas e conscientes de ações para robótica, superando métodos existentes ao modelar transições causais sem necessidade de supervisão por reconstrução geométrica ou dados de ação, resultando em taxas de sucesso significativamente maiores em tarefas de manipulação.

Qiwei Liang, Boyang Cai, Minghao Lai, Sitong Zhuang, Tao Lin, Yan Qin, Yixuan Ye, Jiaming Liang, Renjing XuWed, 11 Ma💻 cs

UniBYD: A Unified Framework for Learning Robotic Manipulation Across Embodiments Beyond Imitation of Human Demonstrations

O artigo apresenta o UniBYD, um framework unificado que utiliza aprendizado por reforço dinâmico e uma representação morfológica unificada para superar as limitações da imitação humana, permitindo que políticas de manipulação robótica se adaptem eficientemente a diversas configurações de mãos robóticas, resultando em um aumento significativo na taxa de sucesso em comparação com o estado da arte.

Tingyu Yuan, Biaoliang Guan, Wen Ye, Ziyan Tian, Yi Yang, Weijie Zhou, Zhaowen Li, Yan Huang, Peng Wang, Chaoyang Zhao, Jinqiao WangWed, 11 Ma💻 cs

A 26-Gram Butterfly-Inspired Robot Achieving Autonomous Tailless Flight

O artigo apresenta o *AirPulse*, um robô voador autônomo de 26 gramas inspirado em borboletas que, pela primeira vez em sua escala, alcança voo controlado sem cauda ao replicar as características biomecânicas de batidas de asas de baixa frequência e um corpo ondulante através de uma arquitetura de controle hierárquico inovadora.

Weibin Gu, Chenrui Feng, Lian Liu, Chen Yang, Xingchi Jiao, Yuhe Ding, Xiaofei Shi, Chao Gao, Alessandro Rizzo, Guyue ZhouWed, 11 Ma💻 cs

Pri4R: Learning World Dynamics for Vision-Language-Action Models with Privileged 4D Representation

O artigo apresenta o Pri4R, uma abordagem que aprimora modelos Visão-Linguagem-Ação (VLA) ao incorporar dinâmicas do mundo por meio da previsão de rastros de pontos 3D durante o treinamento, resultando em melhor desempenho em tarefas de manipulação física sem adicionar custo computacional ou complexidade na inferência.

Jisoo Kim, Jungbin Cho, Sanghyeok Chu, Ananya Bal, Jinhyung Kim, Gunhee Lee, Sihaeng Lee, Seung Hwan Kim, Bohyung Han, Hyunmin Lee, Laszlo A. Jeni, Seungryong KimWed, 11 Ma🤖 cs.AI

SPREAD: Subspace Representation Distillation for Lifelong Imitation Learning

O artigo apresenta o SPREAD, um framework inovador para aprendizado de imitação vitalício que utiliza decomposição em valores singulares para preservar a geometria das representações de tarefas em subespaços de baixa dimensão e uma estratégia de destilação guiada por confiança, superando métodos existentes ao mitigar o esquecimento catastrófico e alcançar desempenho de ponta no benchmark LIBERO.

Kaushik Roy, Giovanni D'urso, Nicholas Lawrance, Brendan Tidd, Peyman MoghadamWed, 11 Ma🤖 cs.LG

HMR-1: Hierarchical Massage Robot with Vision-Language-Model for Embodied Healthcare

O artigo apresenta o HMR-1, um robô de massagem hierárquico que integra modelos de linguagem e visão para identificar pontos de acupuntura e controlar movimentos, apoiado pelo novo conjunto de dados multimodal MedMassage-12K e por um benchmark para avaliação de tarefas de massagem em saúde.

Rongtao Xu, Mingming Yu, Xiaofeng Han, Yu Zhang, Kaiyi Hu, Zhe Feng, Zenghuang Fu, Changwei Wang, Weiliang Meng, Xiaopeng ZhangWed, 11 Ma💻 cs