SceMoS: Scene-Aware 3D Human Motion Synthesis by Planning with Geometry-Grounded Tokens

SceMoS è un framework innovativo per la sintesi di movimenti umani 3D guidati dal testo che, disaccoppiando la pianificazione globale dall'esecuzione locale tramite rappresentazioni 2D (immagini BEV e mappe di altezza), raggiunge uno stato dell'arte nel realismo e nell'accuratezza dei contatti riducendo al contempo i parametri di addestramento rispetto ai metodi basati su dati 3D completi.

Anindita Ghosh, Vladislav Golyanik, Taku Komura + 3 more2026-02-25💻 cs

WildGHand: Learning Anti-Perturbation Gaussian Hand Avatars from Monocular In-the-Wild Videos

Il paper introduce WildGHand, un framework basato sull'ottimizzazione che utilizza lo splatting gaussiano 3D e un modulo di disaccoppiamento delle perturbazioni per ricostruire avatar di mani ad alta fedeltà da video monoculari in ambienti reali, superando le limitazioni delle metodologie esistenti in presenza di interazioni con oggetti, pose estreme e variazioni di illuminazione.

Hanhui Li, Xuan Huang, Wanquan Liu + 5 more2026-02-25💻 cs

BFA++: Hierarchical Best-Feature-Aware Token Prune for Multi-View Vision Language Action Model

Il paper presenta BFA++, un framework di pruning dinamico dei token progettato specificamente per i modelli Vision-Language-Action che, attraverso una strategia gerarchica a due livelli per identificare le regioni e le viste più rilevanti, migliora significativamente l'efficienza computazionale e il tasso di successo nelle manipolazioni robotiche reali.

Haosheng Li, Weixin Mao, Zihan Lan + 6 more2026-02-25💻 cs

An interactive enhanced driving dataset for autonomous driving

Questo paper presenta l'IEDD, un dataset interattivo su larga scala per la guida autonoma che supera le limitazioni dei dati esistenti attraverso un pipeline di estrazione di segmenti interattivi e la creazione di un dataset VQA con allineamento multimodale rigoroso, dimostrando il suo valore nel valutare e affinare le capacità di ragionamento dei modelli Vision-Language-Action.

Haojie Feng, Peizhi Zhang, Mengjie Tian + 8 more2026-02-25💻 cs

Interaction-aware Representation Modeling with Co-occurrence Consistency for Egocentric Hand-Object Parsing

Il paper propone InterFormer, un modello end-to-end basato su transformer che risolve le limitazioni delle metodologie esistenti per l'analisi delle interazioni mano-oggetto in visione egocentrica integrando un generatore di query dinamico, un selettore di caratteristiche a doppio contesto e una funzione di perdita di coerenza di co-occorrenza per ottenere risultati allo stato dell'arte su dataset come EgoHOS e mini-HOI4D.

Yuejiao Su, Yi Wang, Lei Yao + 2 more2026-02-25💻 cs