SpiroLLM: Finetuning Pretrained LLMs to Understand Spirogram Time Series with Clinical Validation in COPD Reporting

En s'appuyant sur une cohorte de 234 028 individus de la UK Biobank, cette étude présente SpiroLLM, le premier grand modèle de langage multimodal capable d'interpréter les spirogrammes pour générer des rapports diagnostiques interprétables et fiables pour la maladie pulmonaire obstructive chronique (MPOC), surpassant ainsi les modèles textuels traditionnels en robustesse et en précision.

Shuhao Mei, Yongchao Long, Xiaoyu Xiao + 6 more2026-03-03💬 cs.CL

Uni-cot: Towards Unified Chain-of-Thought Reasoning Across Text and Vision

L'article présente Uni-CoT, un cadre de raisonnement en chaîne de pensée unifié qui combine la compréhension et la génération d'images pour effectuer un raisonnement multimodal cohérent et évolutif grâce à une nouvelle paradigme de raisonnement à deux niveaux, atteignant des performances de pointe sur des benchmarks d'édition et de génération d'images tout en étant entraîné efficacement sur seulement 8 GPU A100.

Luozheng Qin, Jia Gong, Yuqing Sun + 6 more2026-03-03💬 cs.CL

Optimal Sparsity of Mixture-of-Experts Language Models for Reasoning Tasks

Cette étude démontre que pour les modèles de type Mixture-of-Experts, l'optimisation des tâches de raisonnement ne dépend pas uniquement de la perte d'entraînement, mais repose sur un équilibre conjoint entre le nombre de FLOPs actifs et le nombre de tokens par paramètre, contrairement aux tâches de mémorisation qui bénéficient principalement d'une augmentation du nombre total de paramètres.

Taishi Nakamura, Satoki Ishikawa, Masaki Kawamura + 4 more2026-03-03💬 cs.CL

Distribution-Aligned Decoding for Efficient LLM Task Adaptation

Cet article présente SVDecode, une méthode légère et théoriquement fondée qui améliore l'adaptation des grands modèles de langage à des tâches spécifiques en alignant directement leur distribution de sortie via un vecteur de guidage extrait du gradient de divergence KL, évitant ainsi des mises à jour de poids coûteuses tout en surpassant les méthodes d'adaptation paramétrique efficaces (PEFT) existantes.

Senkang Hu, Xudong Han, Jinqi Jiang + 5 more2026-03-03💬 cs.CL

Actions Speak Louder than Prompts: A Large-Scale Study of LLMs for Graph Inference

Cette étude à grande échelle démontre que la génération de code par les grands modèles de langage (LLM) surpasse les autres modes d'interaction pour l'inférence graphique, en particulier sur des graphes à longueurs de texte élevées ou à forte hétérophilie, offrant ainsi des directives claires pour l'avenir de l'apprentissage automatique sur graphes enrichis en texte.

Ben Finkelshtein, Silviu Cucerzan, Sujay Kumar Jauhar + 1 more2026-03-03💬 cs.CL

Bridging Draft Policy Misalignment: Group Tree Optimization for Speculative Decoding

Ce papier propose la Group Tree Optimization (GTO), une nouvelle méthode qui aligne l'entraînement du modèle de brouillon sur la politique de décodage en arbre pour résoudre le désalignement des stratégies existantes, augmentant ainsi la longueur d'acceptation et la vitesse d'inférence des grands modèles de langage par rapport à l'état de l'art.

Shijing Hu, Jingyang Li, Zhihui Lu + 1 more2026-03-03💬 cs.CL

Reasoning or Retrieval? A Study of Answer Attribution on Large Reasoning Models

Cette étude révèle que les modèles de raisonnement à grande échelle souffrent d'une incohérence entre leurs traces de raisonnement et leurs réponses finales en raison d'une compétition entre le raisonnement et la récupération mémorielle, et propose le cadre FARL pour supprimer ces raccourcis et favoriser un véritable développement des capacités de raisonnement.

Yuhui Wang, Changjiang Li, Guangke Chen + 2 more2026-03-03💬 cs.CL

Group-Relative REINFORCE Is Secretly an Off-Policy Algorithm: Demystifying Some Myths About GRPO and Its Friends

Cet article démontre que l'algorithme REINFORCE à base relative de groupe (GRPO) possède une interprétation nativement hors politique, offrant ainsi un cadre théorique unifié pour corriger les idées reçues sur son fonctionnement et guider la conception de nouvelles méthodes d'apprentissage par renforcement hors politique pour les grands modèles de langage.

Chaorui Yao, Yanxi Chen, Yuchang Sun + 5 more2026-03-03💬 cs.CL