Rethinking On-policy Optimization for Query Augmentation

Cet article présente une comparaison systématique des méthodes d'augmentation de requêtes par prompting et par apprentissage par renforcement, révélant que le prompting simple est souvent aussi performant que les approches RL, ce qui a motivé la proposition d'une méthode hybride novatrice, l'OPQE, qui combine les avantages des deux paradigmes pour surpasser les solutions existantes.

Zhichao Xu, Shengyao Zhuang, Xueguang Ma + 5 more2026-03-03💬 cs.CL

LightMem: Lightweight and Efficient Memory-Augmented Generation

Le papier présente LightMem, un système de mémoire léger et efficace inspiré du modèle humain d'Atkinson-Shiffrin qui, grâce à une organisation en trois étapes (mémoire sensorielle, court terme et long terme avec mise à jour hors ligne), améliore significativement la précision des LLMs tout en réduisant drastiquement l'utilisation de tokens et les appels API par rapport aux méthodes existantes.

Jizhan Fang, Xinle Deng, Haoming Xu + 9 more2026-03-03💬 cs.CL

How Do LLMs Use Their Depth?

Cette étude révèle que les grands modèles de langage utilisent leur profondeur de manière structurée selon un cadre « deviner puis affiner », où les premières couches proposent des hypothèses statistiques basées sur la fréquence des tokens, tandis que les couches ultérieures les affinent grâce au contexte, comme le démontrent des analyses de tâches et des manipulations causales.

Akshat Gupta, Jay Yeung, Gopala Anumanchipalli + 1 more2026-03-03💬 cs.CL

Lookahead Tree-Based Rollouts for Enhanced Trajectory-Level Exploration in Reinforcement Learning with Verifiable Rewards

Cet article propose LATR, une stratégie de défilement basée sur un arbre de prévision qui améliore la diversité des trajectoires et accélère l'apprentissage des politiques dans l'apprentissage par renforcement avec récompenses vérifiables en forçant l'exploration de branches distinctes lors des étapes de génération incertaines.

Shangyu Xing, Siyuan Wang, Chenyuan Yang + 2 more2026-03-03💬 cs.CL

From Efficiency to Adaptivity: A Deeper Look at Adaptive Reasoning in Large Language Models

Cet article propose une nouvelle perspective sur le raisonnement des grands modèles de langage en le redéfinissant par l'adaptativité, en formalisant les mécanismes d'allocation dynamique de l'effort de calcul et en établissant une taxonomie systématique des approches d'apprentissage et d'inférence visant à optimiser l'équilibre entre performance et coût computationnel.

Chao Wu, Baoheng Li, Mingchen Gao + 2 more2026-03-03💬 cs.CL

Universal Robust Speech Adaptation for Cross-Domain Speech Recognition and Enhancement

Ce papier présente URSA-GAN, un cadre génératif unifié qui utilise une architecture à double encodage et une perturbation stochastique dynamique pour adapter robustement la reconnaissance et l'amélioration de la parole à des conditions de bruit et de canal inconnues, réduisant ainsi significativement les erreurs et améliorant les métriques perceptuelles.

Chien-Chun Wang, Hung-Shin Lee, Hsin-Min Wang + 1 more2026-03-03⚡ eess

Deepfake Word Detection by Next-token Prediction using Fine-tuned Whisper

Cet article présente une méthode rentable de détection de mots deepfake qui consiste à affiner le modèle Whisper pour identifier les mots synthétiques lors de la transcription par prédiction de jeton suivant, en utilisant des données partiellement vocodées pour réduire les coûts de collecte, tout en démontrant des performances compétitives sur des données in-domaine et un potentiel de généralisation à améliorer sur des données out-of-domaine.

Hoan My Tran, Xin Wang, Wanying Ge + 2 more2026-03-03⚡ eess

Iterative LLM-based improvement for French Clinical Interview Transcription and Speaker Diarization

Cette étude propose une architecture de post-traitement itérative basée sur un LLM (Qwen3-Next-80B) qui alterne la reconnaissance des locuteurs et des mots pour améliorer significativement la précision de la transcription et du diarisation des conversations cliniques françaises, réduisant les erreurs de diarisation tout en restant viable pour un déploiement hors ligne.

Ambre Marie, Thomas Bertin, Guillaume Dardenne + 1 more2026-03-03⚡ eess