RFM-HRI : A Multimodal Dataset of Medical Robot Failure, User Reaction and Recovery Preferences for Item Retrieval Tasks

Este trabajo presenta el conjunto de datos multimodal RFM-HRI, que registra las reacciones verbales y no verbales de los usuarios ante fallos en robots de asistencia médica durante tareas de recuperación de objetos, analizando cómo estos incidentes afectan la confianza y las preferencias de recuperación para mejorar la seguridad en entornos críticos.

Yashika Batra, Giuliano Pioldi, Promise Ekpo, Arman Sayatqyzy, Purnjay Maruur, Shalom Otieno, Kevin Ching, Angelique Taylor2026-03-09💻 cs

Relational Semantic Reasoning on 3D Scene Graphs for Open World Interactive Object Search

El artículo presenta SCOUT, un método innovador que utiliza grafos de escena 3D y un marco de destilación procedimental para realizar búsquedas interactivas de objetos en entornos abiertos de manera eficiente, superando las limitaciones de los métodos basados en similitud de embeddings y los modelos de lenguaje grandes en términos de velocidad y costo.

Imen Mahdi, Matteo Cassinelli, Fabien Despinoy, Tim Welschehold, Abhinav Valada2026-03-09🤖 cs.AI

Contact-Grounded Policy: Dexterous Visuotactile Policy with Generative Contact Grounding

El artículo presenta la Política Anclada al Contacto (CGP), un enfoque que permite la manipulación hábil y rica en contactos mediante la predicción del estado del robot y el feedback táctil, utilizando un mapeo de consistencia aprendido para convertir estas predicciones en objetivos ejecutables para un controlador de cumplimiento.

Zhengtong Xu, Yeping Wang, Ben Abbatematteo, Jom Preechayasomboon, Sonny Chan, Nick Colonnese, Amirhossein H. Memar2026-03-09💻 cs

Safe-Night VLA: Seeing the Unseen via Thermal-Perceptive Vision-Language-Action Models for Safety-Critical Manipulation

El artículo presenta Safe-Night VLA, un marco multimodal que integra percepción térmica infrarroja y filtros de seguridad basados en funciones de barrera para permitir a los robots manipular objetos de forma segura en entornos no estructurados, superando las limitaciones de los modelos de visión-acción basados únicamente en RGB.

Dian Yu, Qingchuan Zhou, Bingkun Huang, Majid Khadiv, Zewen Yang2026-03-09💻 cs

EmboAlign: Aligning Video Generation with Compositional Constraints for Zero-Shot Manipulation

El método EmboAlign presenta un marco sin datos que alinea los modelos generativos de video con restricciones composicionales extraídas por modelos de lenguaje-visión para seleccionar trayectorias físicamente plausibles y optimizarlas, mejorando significativamente la tasa de éxito en tareas de manipulación robótica sin entrenamiento específico.

Gehao Zhang, Zhenyang Ni, Payal Mohapatra, Han Liu, Ruohan Zhang, Qi Zhu2026-03-09💻 cs

Multi-Robot Trajectory Planning via Constrained Bayesian Optimization and Local Cost Map Learning with STL-Based Conflict Resolution

Este artículo presenta un marco de dos etapas que integra la optimización bayesiana restringida con el razonamiento de Lógica Temporal de Señales (STL) para planificar trayectorias multi-robot eficientes y seguras bajo restricciones cinodinámicas, validando su robustez mediante experimentos reales con vehículos autónomos.

Sourav Raxit, Abdullah Al Redwan Newaz, Jose Fuentes, Paulo Padrao, Ana Cavalcanti, Leonardo Bobadilla2026-03-09💻 cs

Task-Level Decisions to Gait Level Control: A Hierarchical Policy Approach for Quadruped Navigation

El artículo presenta TDGC, una arquitectura de política jerárquica para la navegación de cuadrúpedos que aborda la desconexión entre la toma de decisiones de alto nivel y el control de la marcha mediante un enfoque modular entrenado por refuerzo, logrando una mayor robustez y tasas de éxito en terrenos mixtos y fuera de distribución.

Sijia Li, Haoyu Wang, Shenghai Yuan, Yizhuo Yang, Thien-Minh Nguyen2026-03-09💻 cs

Terrain characterization and locomotion adaptation in a small-scale lizard-inspired robot

Este artículo presenta al SILA Bot, un robot pequeño inspirado en lagartos que utiliza señales propioceptivas y un controlador de retroalimentación lineal para estimar la profundidad del sustrato y adaptar su patrón de movimiento, logrando así una locomoción efectiva en terrenos complejos con baja complejidad computacional.

Duncan Andrews, Landon Zimmerman, Evan Martin, Joe DiGennaro, Baxi Chong2026-03-09💻 cs

Expert Knowledge-driven Reinforcement Learning for Autonomous Racing via Trajectory Guidance and Dynamics Constraints

Este artículo propone un método de aprendizaje por refuerzo llamado TraD-RL que integra líneas de carrera expertas y restricciones de dinámica vehicular mediante funciones de barrera de control para lograr un aprendizaje seguro y estable que supera el rendimiento de expertos en entornos de carreras autónomas de alta dinámica.

Bo Leng, Weiqi Zhang, Zhuoren Li, Lu Xiong, Guizhe Jin, Ran Yu, Chen Lv2026-03-09💻 cs

AnyCamVLA: Zero-Shot Camera Adaptation for Viewpoint Robust Vision-Language-Action Models

El artículo presenta AnyCamVLA, un marco de adaptación de cámara en tiempo real y sin disparos que utiliza síntesis de vistas novedosas para ajustar las observaciones visuales durante la prueba, permitiendo que los modelos de Visión-Lenguaje-Acción preentrenados mantengan su robustez ante cambios de perspectiva sin necesidad de datos adicionales, ajuste fino o modificaciones arquitectónicas.

Hyeongjun Heo, Seungyeon Woo, Sang Min Kim, Junho Kim, Junho Lee, Yonghyeon Lee, Young Min Kim2026-03-09💻 cs