ReFusion: A Diffusion Large Language Model with Parallel Autoregressive Decoding

Le papier présente ReFusion, un modèle de diffusion masqué innovant qui combine le réordonnancement de séquences et le cadre d'attention causale pour permettre un décodage parallèle efficace avec mise en cache KV, surmontant ainsi les limitations de vitesse et de cohérence des modèles de diffusion existants tout en rivalisant avec les modèles autoregressifs.

Jia-Nan Li, Jian Guan, Wei Wu + 1 more2026-03-06💻 cs

From Word to World: Can Large Language Models be Implicit Text-based World Models?

Cette étude propose un cadre d'évaluation à trois niveaux pour déterminer dans quelles conditions les grands modèles de langage peuvent servir de modèles du monde textuels fiables, démontrant qu'ils améliorent l'apprentissage des agents par la génération de trajectoires et la vérification d'actions, tout en soulignant que ces bénéfices dépendent crucialement de la couverture comportementale et de la complexité de l'environnement.

Yixia Li, Hongru Wang, Jiahao Qiu + 7 more2026-03-06💻 cs

When Do Tools and Planning Help Large Language Models Think? A Cost- and Latency-Aware Benchmark

Cette étude démontre que l'ajout de planification et d'outils externes aux grands modèles de langage améliore significativement la précision sur des tâches de raisonnement complexe comme la réponse aux questions événementielles, mais au prix d'une latence accrue et sans bénéfice systématique pour des tâches comme la persuasion, soulignant ainsi la nécessité de choix stratégiques adaptés au coût et à la nature de la tâche.

Subha Ghoshal, Ali Al-Bustami2026-03-06💻 cs

Where is the multimodal goal post? On the Ability of Foundation Models to Recognize Contextually Important Moments

Cette étude révèle que les modèles fondationnels actuels peinent à identifier les moments clés dans des vidéos de football, car ils dépendent trop d'une seule modalité et échouent à synthétiser efficacement les informations croisées, soulignant ainsi le besoin d'architectures modulaires et de procédures d'entraînement complémentaires.

Aditya K Surikuchi, Raquel Fernández, Sandro Pezzelle2026-03-06💻 cs

Self-Distilled Reasoner: On-Policy Self-Distillation for Large Language Models

Ce papier présente le Self-Distilled Reasoner, un cadre d'auto-distillation sur politique où un seul modèle joue à la fois le rôle d'enseignant (conditionné sur des traces de raisonnement privilégiées) et d'élève (ne voyant que la question), permettant d'améliorer les capacités de raisonnement mathématique avec une efficacité tokenique bien supérieure aux méthodes d'apprentissage par renforcement.

Siyan Zhao, Zhihui Xie, Mengchen Liu + 4 more2026-03-06💻 cs

LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning

LatentChem introduit une interface de raisonnement latent qui découple le calcul chimique de la génération textuelle, permettant aux modèles d'effectuer des inférences complexes dans un espace continu pour obtenir des performances supérieures et une accélération significative par rapport aux méthodes traditionnelles basées sur la chaîne de pensée explicite.

Xinwu Ye, Yicheng Mao, Jia Zhang + 16 more2026-03-06🔬 physics

Assessing Risks of Large Language Models in Mental Health Support: A Framework for Automated Clinical AI Red Teaming

Cette étude présente un cadre d'évaluation par « red teaming » clinique automatisé qui, grâce à des simulations de thérapie avec des agents patients dynamiques, révèle des risques iatrogènes critiques dans l'utilisation des modèles de langage pour le soutien en santé mentale et valide un outil de visualisation pour auditer ces systèmes auprès de diverses parties prenantes.

Ian Steenstra, Paola Pedrelli, Weiyan Shi + 2 more2026-03-06💻 cs