RFM-HRI : A Multimodal Dataset of Medical Robot Failure, User Reaction and Recovery Preferences for Item Retrieval Tasks

Este artigo apresenta o conjunto de dados multimodal RFM-HRI, que registra as reações verbais e não verbais de usuários e suas preferências de recuperação diante de falhas em robôs médicos durante tarefas de recuperação de itens, fornecendo uma base fundamental para o desenvolvimento de métodos de detecção e recuperação de falhas em interações humano-robô.

Yashika Batra, Giuliano Pioldi, Promise Ekpo, Arman Sayatqyzy, Purnjay Maruur, Shalom Otieno, Kevin Ching, Angelique Taylor2026-03-09💻 cs

Relational Semantic Reasoning on 3D Scene Graphs for Open World Interactive Object Search

O artigo apresenta o SCOUT, um método inovador para busca interativa de objetos em ambientes domésticos abertos que utiliza grafos de cena 3D e conhecimento relacional destilado de modelos de linguagem para superar as limitações de velocidade e precisão das abordagens anteriores, alcançando desempenho eficiente e generalizável tanto em simulação quanto em robôs físicos.

Imen Mahdi, Matteo Cassinelli, Fabien Despinoy, Tim Welschehold, Abhinav Valada2026-03-09🤖 cs.AI

Contact-Grounded Policy: Dexterous Visuotactile Policy with Generative Contact Grounding

O artigo apresenta a Política Baseada em Contato (CGP), uma abordagem que permite manipulação destreza rica em contato ao prever o estado do robô e o feedback tátil para gerar alvos executáveis, suportando tanto sensores táteis densos quanto baseados em visão e sendo validada em tarefas de simulação e robótica física.

Zhengtong Xu, Yeping Wang, Ben Abbatematteo, Jom Preechayasomboon, Sonny Chan, Nick Colonnese, Amirhossein H. Memar2026-03-09💻 cs

Environment-Aware Path Generation for Robotic Additive Manufacturing of Structures

Este artigo propõe um novo framework de geração de caminhos sensível ao ambiente para manufatura aditiva robótica, que utiliza quatro algoritmos de planejamento de trajetória para projetar estruturas online em ambientes dinâmicos com obstáculos, avaliando seu desempenho através de métricas estruturais e computacionais para identificar os planejadores mais eficazes em cenários desafiadores.

Mahsa Rabiei, Reza Moini2026-03-09💻 cs

Safe-Night VLA: Seeing the Unseen via Thermal-Perceptive Vision-Language-Action Models for Safety-Critical Manipulation

O artigo apresenta o Safe-Night VLA, um modelo de manipulação multimodal que integra percepção térmica de infravermelho e filtros de segurança baseados em funções de barreira de controle para permitir que robôs operem com segurança em ambientes não estruturados, detectando objetos invisíveis à luz visível e garantindo execução robusta fora da distribuição de treinamento.

Dian Yu, Qingchuan Zhou, Bingkun Huang, Majid Khadiv, Zewen Yang2026-03-09💻 cs

EmboAlign: Aligning Video Generation with Compositional Constraints for Zero-Shot Manipulation

O artigo apresenta o EmboAlign, um framework sem dados que alinha modelos generativos de vídeo com restrições composicionais extraídas por modelos de visão e linguagem para selecionar os melhores rolagens e refinar trajetórias robóticas, aumentando significativamente a taxa de sucesso em tarefas de manipulação zero-shot sem necessidade de treinamento específico.

Gehao Zhang, Zhenyang Ni, Payal Mohapatra, Han Liu, Ruohan Zhang, Qi Zhu2026-03-09💻 cs

Multi-Robot Trajectory Planning via Constrained Bayesian Optimization and Local Cost Map Learning with STL-Based Conflict Resolution

Este artigo apresenta um framework de dois estágios que integra otimização bayesiana com restrição e busca baseada em conflitos aprimorada por Lógica Temporal de Sinais (STL) para planejar trajetórias multi-robô escaláveis, seguras e que satisfazem especificações formais em ambientes incertos.

Sourav Raxit, Abdullah Al Redwan Newaz, Jose Fuentes, Paulo Padrao, Ana Cavalcanti, Leonardo Bobadilla2026-03-09💻 cs

Task-Level Decisions to Gait Level Control: A Hierarchical Policy Approach for Quadruped Navigation

Este artigo apresenta a TDGC, uma arquitetura de política hierárquica para navegação de quadrúpedes que supera as limitações de simulação para realidade e instabilidades em ambientes desconhecidos ao conectar decisões de alto nível baseadas em pistas semânticas ou geométricas a um controle de marcha de baixo nível treinado por aprendizado por reforço, oferecendo interfaces explícitas para ajuste e diagnóstico.

Sijia Li, Haoyu Wang, Shenghai Yuan, Yizhuo Yang, Thien-Minh Nguyen2026-03-09💻 cs

CDF-Glove: A Cable-Driven Force Feedback Glove for Dexterous Teleoperation

O artigo apresenta o CDF-Glove, uma luva de teleoperação leve, de baixo custo e com feedback de força por cabo que melhora significativamente a qualidade das demonstrações para aprendizado por imitação, aumentando a taxa de sucesso em tarefas e reduzindo o tempo de conclusão em comparação com métodos sem feedback ou ensino cinestésico.

Huayue Liang, Ruochong Li, Yaodong Yang, Long Zeng, Yuanpei Chen, Xueqian Wang2026-03-09💻 cs

OpenHEART: Opening Heterogeneous Articulated Objects with a Legged Manipulator

O artigo apresenta o OpenHEART, um framework robusto e eficiente em amostras que utiliza extração de características abstratas baseadas em amostragem (SAFE) e um estimador de informações de articulação (ArtIEst) para permitir que manipuladores com pernas abram de forma generalizada objetos articulados heterogêneos, como portas e gavetas, tanto em simulação quanto no mundo real.

Seonghyeon Lim, Hyeonwoo Lee, Seunghyun Lee, I Made Aswin Nahrendra, Hyun Myung2026-03-09💻 cs

Expert Knowledge-driven Reinforcement Learning for Autonomous Racing via Trajectory Guidance and Dynamics Constraints

Este artigo propõe o método TraD-RL, que integra conhecimento de especialistas e restrições dinâmicas via funções de barreira de controle e aprendizado curricular para superar os desafios de instabilidade e segurança no aprendizado por reforço aplicado a corridas autônomas de alto desempenho.

Bo Leng, Weiqi Zhang, Zhuoren Li, Lu Xiong, Guizhe Jin, Ran Yu, Chen Lv2026-03-09💻 cs

AnyCamVLA: Zero-Shot Camera Adaptation for Viewpoint Robust Vision-Language-Action Models

O artigo apresenta o AnyCamVLA, uma abordagem de adaptação de câmera *zero-shot* que ajusta virtualmente as observações visuais em tempo real para corresponder à configuração de treinamento, permitindo que modelos de Visão-Linguagem-Ação pré-treinados mantenham sua robustez a mudanças de ponto de vista sem necessidade de novos dados, ajuste fino ou modificações arquitetônicas.

Hyeongjun Heo, Seungyeon Woo, Sang Min Kim, Junho Kim, Junho Lee, Yonghyeon Lee, Young Min Kim2026-03-09💻 cs

Systematic Evaluation of Novel View Synthesis for Video Place Recognition

Este artigo apresenta uma avaliação sistemática da geração de vistas sintéticas para reconhecimento de lugares em vídeo (VPR), demonstrando que, embora pequenas adições de novas vistas melhorem as estatísticas de reconhecimento, para adições maiores o tipo de imagem e a quantidade de vistas são mais determinantes do que a magnitude da mudança de perspectiva.

Muhammad Zawad Mahmud, Samiha Islam, Damian Lyons2026-03-09💻 cs