Uni-cot: Towards Unified Chain-of-Thought Reasoning Across Text and Vision

L'article présente Uni-CoT, un cadre de raisonnement en chaîne de pensée unifié qui combine la compréhension et la génération d'images pour effectuer un raisonnement multimodal cohérent et évolutif grâce à une nouvelle paradigme de raisonnement à deux niveaux, atteignant des performances de pointe sur des benchmarks d'édition et de génération d'images tout en étant entraîné efficacement sur seulement 8 GPU A100.

Luozheng Qin, Jia Gong, Yuqing Sun + 6 more2026-03-03💬 cs.CL

ImagiDrive: A Unified Imagination-and-Planning Framework for Autonomous Driving

Le papier présente ImagiDrive, un cadre unifié d'imagination et de planification pour la conduite autonome qui intègre un agent de conduite basé sur des modèles vision-langage et un imaginateur de scènes fondé sur des modèles mondiaux de conduite pour affiner itérativement les décisions de trajectoire et améliorer la sécurité dans des environnements dynamiques.

Jingyu Li, Bozhou Zhang, Xin Jin + 3 more2026-03-03💻 cs

MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding

Ce papier présente MOON, le premier modèle génératif basé sur un grand modèle de langage multimodal (MLLM) conçu pour l'apprentissage de représentations produits dans le commerce électronique, qui surmonte les limites des architectures discriminatives existantes grâce à un module MoE guidé, une détection de régions sémantiques clés et une stratégie d'échantillonnage négatif, tout en introduisant un nouveau benchmark multimodal à grande échelle nommé MBE.

Daoze Zhang, Chenghan Fu, Zhanheng Nie + 7 more2026-03-03🤖 cs.AI

Time-Aware One Step Diffusion Network for Real-World Image Super-Resolution

L'article propose TADSR, un réseau de diffusion en une seule étape pour la super-résolution d'images réelles qui améliore les performances et permet un compromis contrôlable entre fidélité et réalisme en exploitant dynamiquement les priors génératifs du modèle Stable Diffusion à différents pas de temps grâce à un encodeur VAE et une fonction de perte adaptés au temps.

Tianyi Zhang, Zheng-Peng Duan, Peng-Tao Jiang + 4 more2026-03-03⚡ eess

FastAvatar: Towards Unified and Fast 3D Avatar Reconstruction with Large Gaussian Reconstruction Transformers

FastAvatar est un cadre de reconstruction d'avatars 3D unifié et rapide qui utilise un grand transformateur de reconstruction gaussienne (LGRT) pour générer en quelques secondes des modèles 3DGS de haute qualité à partir de diverses sources d'images ou vidéos quotidiennes, tout en permettant une reconstruction incrémentielle et une qualité ajustable.

Yue Wu, Xuanhong Chen, Yufan Wu + 3 more2026-03-03💻 cs

RTGMFF: Enhanced fMRI-based Brain Disorder Diagnosis via ROI-driven Text Generation and Multimodal Feature Fusion

Le papier présente RTGMFF, un cadre innovant qui améliore le diagnostic des troubles cérébraux à partir de l'IRMf en générant automatiquement des descriptions textuelles des régions d'intérêt et en fusionnant ces informations avec des caractéristiques multimodales via un encodeur hybride et un module d'alignement sémantique.

Junhao Jia, Yifei Sun, Yunyou Liu + 5 more2026-03-03💻 cs

Easier Painting Than Thinking: Can Text-to-Image Models Set the Stage, but Not Direct the Play?

Cet article présente T2I-CoReBench, un benchmark complet et complexe évaluant les capacités de composition et de raisonnement des modèles de génération d'images à partir de texte, révélant que si la composition reste limitée dans des scénarios denses, le raisonnement constitue un goulot d'étranglement critique où les modèles échouent à inférer des éléments implicites.

Ouxiang Li, Yuan Wang, Xinting Hu + 7 more2026-03-03💻 cs

BWCache: Accelerating Video Diffusion Transformers through Block-Wise Caching

Ce papier présente BWCache, une méthode sans entraînement qui accélère la génération vidéo par des Transformers de diffusion en réutilisant dynamiquement les caractéristiques des blocs lors des étapes intermédiaires grâce à un indicateur de similarité, permettant ainsi une accélération jusqu'à 6 fois sans compromettre la qualité visuelle.

Hanshuai Cui, Zhiqing Tang, Zhifei Xu + 3 more2026-03-03🤖 cs.AI

Person Identification from Egocentric Human-Object Interactions using 3D Hand Pose

Ce papier présente I2S, un cadre léger et rapide pour l'identification d'utilisateurs en temps réel dans les systèmes de réalité augmentée, qui exploite l'analyse de la pose 3D de la main et une nouvelle descripteur d'enveloppe spatiale inter-mains (IHSE) pour atteindre une précision exceptionnelle de 97,52 % lors de l'interaction humain-objet.

Muhammad Hamza, Danish Hamid, Muhammad Tahir Akram2026-03-03🤖 cs.LG