Residual Control for Fast Recovery from Dynamics Shifts

Il paper propone un'architettura di controllo residuo allineata alla stabilità che, mantenendo invariata una politica RL nominale e regolando un canale additivo tramite un "Stability Alignment Gate", permette ai sistemi robotici di recuperare rapidamente le prestazioni dopo shift dinamici imprevisti senza necessità di riaddestramento.

Nethmi Jayasinghe, Diana Gontero, Francesco Migliarba, Spencer T. Brown, Vinod K. Sangwan, Mark C. Hersam, Amit Ranjan Trivedi2026-03-10💻 cs

A Robust Antenna Provides Tactile Feedback in a Multi-legged Robot

Questo studio presenta un robot multi-piede dotato di antenne tattili biomimetiche a gradiente di rigidità che, convertendo la deformazione meccanica in feedback di collisione, permettono una navigazione autonoma e robusta in ambienti confinati e complessi senza l'uso di visione o informazioni globali.

Zhaochen J. Xu, Juntao He, Delfin Aydan, Malaika Taylor, Tianyu Wang, Jianfeng Lin, Wesley Dyer, Daniel I. Goldman2026-03-10💻 cs

Inverse Resistive Force Theory (I-RFT): Learning granular properties through robot-terrain physical interactions

Il paper presenta l'Inverse Resistive Force Theory (I-RFT), un framework di apprendimento automatico basato sulla fisica che integra la teoria della forza resistiva granulare con i processi gaussiani per stimare con precisione le proprietà dei terreni granulari dai dati di forza durante locomozioni arbitrarie, permettendo ai robot di ottimizzare attivamente il proprio design e le traiettorie di movimento per l'esplorazione autonoma.

Shipeng Liu, Feng Xue, Yifeng Zhang, Tarunika Ponnusamy, Feifei Qian2026-03-10💻 cs

Preference-Conditioned Reinforcement Learning for Space-Time Efficient Online 3D Bin Packing

Il paper presenta STEP, un metodo di apprendimento per rinforzo basato su Transformer e condizionato dalle preferenze che ottimizza il bin packing 3D online bilanciando l'efficienza spaziale e i tempi operativi, ottenendo una riduzione del 44% del tempo di esecuzione senza compromettere la densità di imballaggio.

Nikita Sarawgi, Omey M. Manyar, Fan Wang, Thinh H. Nguyen, Daniel Seita, Satyandra K. Gupta2026-03-10💻 cs

Uncertainty Mitigation and Intent Inference: A Dual-Mode Human-Machine Joint Planning System

Il paper propone un sistema unificato di pianificazione congiunta uomo-macchina che opera in due modalità complementari per mitigare l'incertezza e inferire l'intento umano, riducendo significativamente i costi di interazione e i tempi di esecuzione attraverso conversazioni attive guidate da LLM e una collaborazione coordinata in tempo reale basata su segnali spaziali.

Zeyu Fang, Yuxin Lin, Cheng Liu, Beomyeol Yu, Zeyuan Yang, Rongqian Chen, Taeyoung Lee, Mahdi Imani, Tian Lan2026-03-10💻 cs

Reasoning Knowledge-Gap in Drone Planning via LLM-based Active Elicitation

Il paper presenta un nuovo framework che utilizza modelli linguistici per elicitare attivamente informazioni tramite domande binarie ottimali, permettendo ai droni di colmare le lacune conoscitive durante la pianificazione e riducendo così il bisogno di intervento umano in compiti complessi come la ricerca e il salvataggio.

Zeyu Fang, Beomyeol Yu, Cheng Liu, Zeyuan Yang, Rongqian Chen, Yuxin Lin, Mahdi Imani, Tian Lan2026-03-10💻 cs

Physics-infused Learning for Aerial Manipulator in Winds and Near-Wall Environments

Questo articolo presenta un framework di controllo unificato per la manipolazione aerea che combina un modello aerodinamico basato sulla fisica con un estimatore residuo guidato dall'apprendimento e una strategia di allocazione della velocità dei rotori, permettendo agli UAV di eseguire operazioni di contatto con le pareti in modo robusto anche in condizioni di vento complesse e in prossimità di ostacoli.

Yiming Zhang, Junyi Geng2026-03-10💻 cs

Relating Reinforcement Learning to Dynamic Programming-Based Planning

Questo articolo colma il divario tra la pianificazione basata sulla programmazione dinamica e l'apprendimento per rinforzo sviluppando una versione derandomizzata dell'RL, analizzando le condizioni di equivalenza tra minimizzazione dei costi e massimizzazione delle ricompense, e dimostrando l'importanza di ottimizzare il "vero costo" rispetto all'uso di parametri arbitrari.

Filip V. Georgiev, Kalle G. Timperi, Basak Sakçak, Steven M. LaValle2026-03-10💻 cs

Viewpoint-Agnostic Grasp Pipeline using VLM and Partial Observations

Questo articolo presenta una pipeline end-to-end per la presa guidata dal linguaggio su robot mobili, che combina rilevamento open-vocabulary, completamento della nuvola di punti e criteri di sicurezza per superare le occlusioni, ottenendo un tasso di successo del 90% in ambienti disordinati rispetto al 30% di un metodo basato sulla vista dipendente.

Dilermando Almeida, Juliano Negri, Guilherme Lazzarini, Thiago H. Segreto, Ranulfo Bezerra, Ricardo V. Godoy, Marcelo Becker2026-03-10🤖 cs.LG

Choose What to Observe: Task-Aware Semantic-Geometric Representations for Visuomotor Policy

Il paper propone un'interfaccia di osservazione task-aware che, segmentando gli oggetti rilevanti e rappresentandoli con colori semantici e dati di profondità, canonizza l'input visivo per migliorare la robustezza delle politiche visuomotorie ai cambiamenti di aspetto senza richiedere modifiche o riaddestramento del modello.

Haoran Ding, Liang Ma, Yaxun Yang, Wen Yang, Tianyu Liu, Anqing Duan, Xiaodan Liang, Dezhen Song, Ivan Laptev, Yoshihiko Nakamura2026-03-10💻 cs

RoboRouter: Training-Free Policy Routing for Robotic Manipulation

Il paper introduce RoboRouter, un framework senza addestramento che migliora le prestazioni della manipolazione robotica selezionando dinamicamente la politica migliore tra un pool eterogeneo basandosi sull'esperienza accumulata, ottenendo significativi aumenti nei tassi di successo sia in simulazione che nel mondo reale.

Yiteng Chen, Zhe Cao, Hongjia Ren, Chenjie Yang, Wenbo Li, Shiyi Wang, Yemin Wang, Li Zhang, Yanming Shao, Zhenjun Zhao, Huiping Zhuang, Qingyao Wu2026-03-10💻 cs

DyQ-VLA: Temporal-Dynamic-Aware Quantization for Embodied Vision-Language-Action Models

Il paper presenta DyQ-VLA, un framework di quantizzazione dinamica per modelli Vision-Language-Action che, sfruttando proxy cinematici in tempo reale per adattare dinamicamente la precisione dei bit, riduce l'ingombro di memoria del 69,1% mantenendo il 99,5% delle prestazioni originali e accelerando l'esecuzione sia in simulazione che nel mondo reale.

Zihao Zheng, Hangyu Cao, Sicheng Tian, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Zhaobo Zhang, Xuanzhe Liu, Donggang Cao, Hong Mei, Xiang Chen2026-03-10🤖 cs.LG

Long-Short Term Agents for Pure-Vision Bronchoscopy Robotic Autonomy

Il paper presenta un framework di autonomia puramente visiva per la navigazione broncoscopica robotizzata, basato su agenti gerarchici a lungo e breve termine e un critico di modello del mondo, che ha dimostrato la fattibilità preclinica raggiungendo con successo obiettivi anatomici in modelli fantasma, polmoni ex vivo e modelli viventi senza l'uso di tracciamento esterno.

Junyang Wu, Mingyi Luo, Fangfang Xie, Minghui Zhang, Hanxiao Zhang, Chunxi Zhang, Junhao Wang, Jiayuan Sun, Yun Gu, Guang-Zhong Yang2026-03-10💻 cs

Unified Structural-Hydrodynamic Modeling of Underwater Underactuated Mechanisms and Soft Robots

Questo lavoro propone un framework di ottimizzazione globale guidato da traiettorie, ispirato alla CMA-ES, per il modellamento strutturale-idrodinamico unificato di robot sottomarini sottodimensionati e soft, consentendo l'identificazione simultanea di parametri interni ed esterni con alta fedeltà e scalabilità su sistemi complessi come un robot polipo.

Chenrui Zhang, Yiyuan Zhang, Yunfei Ye, Junkai Chen, Haozhe Wang, Cecilia Laschi2026-03-10🔬 physics

RAPID: Redundancy-Aware and Compatibility-Optimal Edge-Cloud Partitioned Inference for Diverse VLA models

Il paper presenta RAPID, un nuovo framework di inferenza collaborativa edge-cloud progettato per i modelli VLA che, superando le limitazioni delle soluzioni esistenti legate al rumore visivo e alla ridondanza delle azioni, garantisce una continuità fisica del movimento con un'accelerazione fino a 1,73 volte e un overhead ridotto del 5-7%.

Zihao Zheng, Sicheng Tian, Hangyu Cao, Chenyue Li, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Guojie Luo, Xiang Chen2026-03-10💻 cs