MotionStream: Real-Time Video Generation with Interactive Motion Controls

MotionStream est une méthode de génération vidéo en temps réel qui, grâce à une distillation de connaissances et une attention causale à fenêtre glissante, permet de produire des vidéos de qualité supérieure avec un contrôle interactif des mouvements et une latence sub-secondaire, rendant possible le streaming infini sur une seule carte graphique.

Joonghyuk Shin, Zhengqi Li, Richard Zhang + 4 more2026-03-06💻 cs

SASG-DA: Sparse-Aware Semantic-Guided Diffusion Augmentation For Myoelectric Gesture Recognition

Cet article propose SASG-DA, une méthode d'augmentation de données basée sur la diffusion qui combine un guidage sémantique et un échantillonnage conscient de la parcimonie pour générer des signaux sEMG à la fois fidèles et diversifiés, améliorant ainsi significativement la reconnaissance des gestes myoélectriques et la généralisation des modèles.

Chen Liu, Can Han, Weishi Xu + 2 more2026-03-06💻 cs

CCSD: Cross-Modal Compositional Self-Distillation for Robust Brain Tumor Segmentation with Missing Modalities

Ce papier propose un cadre d'auto-distillation croisée et compositionnelle (CCSD) doté d'une architecture encodeur-décodeur partagée-spécifique et de mécanismes de distillation hiérarchique et progressive, permettant d'atteindre des performances de pointe pour la segmentation robuste des tumeurs cérébrales même en présence de modalités IRM manquantes.

Dongqing Xie, Yonghuang Wu, Zisheng Ai + 4 more2026-03-06💻 cs

STAvatar: Soft Binding and Temporal Density Control for Monocular 3D Head Avatars Reconstruction

STAvatar propose une méthode de reconstruction d'avatars 3D faciaux animables à partir de vidéos monoculaires qui surpasse l'état de l'art grâce à un cadre de liaison souple adaptatif aux UV et à une stratégie de contrôle de densité temporelle, permettant ainsi de capturer des détails fins et de reconstruire efficacement des régions fréquemment occluses.

Jiankuo Zhao, Xiangyu Zhu, Zidu Wang + 1 more2026-03-06💻 cs

Fairness-Aware Fine-Tuning of Vision-Language Models for Medical Glaucoma Diagnosis

Cette étude propose une méthode de fine-tuning équitable et économe en paramètres pour les modèles vision-langage appliqués au diagnostic du glaucome, utilisant une nouvelle fonction de perte différentiable et des techniques d'adaptation de bas rang pour réduire significativement les disparités diagnostiques entre groupes démographiques tout en maintenant une précision globale élevée.

Zijian Gu, Yuxi Liu, Zhenhao Zhang + 1 more2026-03-06💻 cs