Domain-Specific Quality Estimation for Machine Translation in Low-Resource Scenarios

Cette étude propose une méthode d'estimation de qualité pour la traduction automatique vers des langues indiennes en ressources limitées, démontrant que l'adaptation des couches intermédiaires de grands modèles de langage (via ALOPE et LoRMA) surpasse les approches par simple prompt pour garantir une robustesse accrue, notamment dans les domaines à haut risque.

Namrata Patil Gurav, Akashdeep Ranu, Archchana Sindhujan, Diptesh Kanojia2026-03-10🤖 cs.LG

SoK: Agentic Retrieval-Augmented Generation (RAG): Taxonomy, Architectures, Evaluation, and Research Directions

Cet article de synthèse (SoK) propose le premier cadre unifié pour les systèmes de Génération Augmentée par Récupération (RAG) agents, en formalisant leur fonctionnement comme des processus de décision markoviens, en établissant une taxonomie architecturale complète, en identifiant des risques critiques tels que la propagation des hallucinations, et en définissant des orientations de recherche pour améliorer leur fiabilité et leur contrôlabilité.

Saroj Mishra, Suman Niroula, Umesh Yadav, Dilip Thakur, Srijan Gyawali, Shiva Gaire2026-03-10💬 cs.CL

Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge Streams

Ce papier présente OAKS, un nouveau benchmark évaluant la capacité des grands modèles de langage à s'adapter en temps réel à des flux de connaissances continus, révélant ainsi des limites significatives des modèles actuels et des systèmes de mémoire agentic dans le suivi précis des faits évolutifs.

Jiyeon Kim, Hyunji Lee, Dylan Zhou, Sue Hyun Park, Seunghyun Yoon, Trung Bui, Franck Dernoncourt, Sungmin Cha, Minjoon Seo2026-03-10💬 cs.CL

AQuA: Toward Strategic Response Generation for Ambiguous Visual Questions

Ce papier présente AQuA, un nouveau jeu de données et une méthode de fine-tuning qui permettent aux modèles vision-langage de classifier les ambiguïtés visuelles en quatre niveaux et d'adopter dynamiquement des stratégies de réponse adaptées, telles que la demande de clarification ou l'énumération d'alternatives, surpassant ainsi les modèles existants dans la gestion des questions visuelles ambiguës.

Jihyoung Jang, Hyounghun Kim2026-03-10💬 cs.CL

Few Tokens, Big Leverage: Preserving Safety Alignment by Constraining Safety Tokens during Fine-tuning

Le papier propose PACT, un cadre d'ajustement fin qui préserve l'alignement de sécurité des grands modèles de langage en régularisant spécifiquement la confiance du modèle sur un petit sous-ensemble de tokens liés à la sécurité, évitant ainsi la dérive de l'alignement sans compromettre les performances sur les tâches en aval.

Guoli Wang, Haonan Shi, Tu Ouyang, An Wang2026-03-10🤖 cs.LG

Dial: A Knowledge-Grounded Dialect-Specific NL2SQL System

Le papier présente Dial, un système NL2SQL ancré dans des connaissances qui améliore la génération de requêtes pour des dialectes SQL hétérogènes grâce à une planification logique adaptée, une base de connaissances hiérarchique et une boucle de débogage exécutée, surpassant ainsi les méthodes existantes sur un nouveau benchmark multi-dialectes.

Xiang Zhang, Hongming Xu, Le Zhou, Wei Zhou, Xuanhe Zhou, Guoliang Li, Yuyu Luo, Changdong Liu, Guorun Chen, Jiang Liao, Fan Wu2026-03-10🤖 cs.LG

Cross-Modal Taxonomic Generalization in (Vision-) Language Models

Cette étude démontre que les modèles de langage préentraînés, lorsqu'ils sont intégrés à des modèles vision-langage, peuvent récupérer et généraliser des connaissances taxonomiques (comme les hyperonymes) à partir de l'input linguistique seul, même en l'absence totale d'évidence visuelle explicite, à condition que les données visuelles présentent une cohérence intra-catégorielle.

Tianyang Xu, Marcelo Sandoval-Castaneda, Karen Livescu, Greg Shakhnarovich, Kanishka Misra2026-03-10💬 cs.CL

Skip to the Good Part: Representation Structure & Inference-Time Layer Skipping in Diffusion vs. Autoregressive LLMs

Cette étude révèle que les objectifs d'entraînement des modèles de diffusion créent des représentations hiérarchiques avec une redondance précoce permettant un saut de couches à l'inférence réduisant les FLOPs de près de 19 % sans perte de performance, contrairement aux modèles autoregressifs dont les représentations sont plus dépendantes de la profondeur.

Raghavv Goel, Risheek Garrepalli, Sudhanshu Agrawal, Chris Lott, Mingu Lee, Fatih Porikli2026-03-10💬 cs.CL

Bolbosh: Script-Aware Flow Matching for Kashmiri Text-to-Speech

Ce papier présente Bolbosh, le premier système de synthèse vocale neuronale open-source pour le Kashmiri, qui surpasse les modèles multilingues existants grâce à une adaptation supervisée par Flow Matching et un pipeline d'amélioration acoustique, comblant ainsi une lacune critique dans les technologies de la parole pour cette langue.

Tajamul Ashraf, Burhaan Rasheed Zargar, Saeed Abdul Muizz, Ifrah Mushtaq, Nazima Mehdi, Iqra Altaf Gillani, Aadil Amin Kak, Janibul Bashir2026-03-10💬 cs.CL

TableMind++: An Uncertainty-Aware Programmatic Agent for Tool-Augmented Table Reasoning

Ce papier présente TableMind++, une extension de l'agent programmatique TableMind qui intègre un cadre d'inférence conscient de l'incertitude, combinant élagage de plans guidé par la mémoire, raffinement d'actions basé sur la confiance et agrégation de trajectoires pour atténuer les hallucinations et améliorer la précision du raisonnement sur les tableaux.

Mingyue Cheng, Shuo Yu, Chuang Jiang, Xiaoyu Tao, Qingyang Mao, Jie Ouyang, Qi Liu, Enhong Chen2026-03-10💬 cs.CL

Accent Vector: Controllable Accent Manipulation for Multilingual TTS Without Accented Data

L'article propose « Accent Vector », une méthode permettant de manipuler de manière contrôlée les accents dans la synthèse vocale multilingue sans nécessiter de données d'entraînement accentuées, en exploitant des vecteurs de tâche dérivés de l'apprentissage sur des langues maternelles différentes.

Thanathai Lertpetchpun, Thanapat Trachu, Jihwan Lee, Tiantian Feng, Dani Byrd, Shrikanth Narayanan2026-03-10💬 cs.CL

MAWARITH: A Dataset and Benchmark for Legal Inheritance Reasoning with LLMs

Ce papier présente MAWARITH, un vaste ensemble de données annoté de 12 500 cas de droit successoral islamique en arabe conçu pour entraîner et évaluer les modèles de langage sur l'ensemble de la chaîne de raisonnement juridique, accompagnée d'une nouvelle métrique d'évaluation (MIR-E) qui révèle les limites actuelles des LLMs dans l'application précise des règles complexes d'héritage.

Abdessalam Bouchekif, Shahd Gaben, Samer Rashwani, Somaya Eltanbouly, Mutaz Al-Khatib, Heba Sbahi, Mohammed Ghaly, Emad Mohamed2026-03-10💬 cs.CL

Learning-free L2-Accented Speech Generation using Phonological Rules

Cet article propose un cadre de synthèse vocale à l'accent étranger sans apprentissage qui combine un modèle TTS multilingue avec des règles phonologiques pour transformer les séquences de phonèmes et générer des accents spécifiques, tels que l'espagnol ou l'indien, sans nécessiter de données d'entraînement accentuées.

Thanathai Lertpetchpun, Yoonjeong Lee, Jihwan Lee, Tiantian Feng, Dani Byrd, Shrikanth Narayanan2026-03-10💬 cs.CL

Nw\=ach\=a Mun\=a: A Devanagari Speech Corpus and Proximal Transfer Benchmark for Nepal Bhasha ASR

Cet article présente Nwāchā Munā, un corpus de parole de 5,39 heures en écriture devanagari pour la langue népalaise (Newari), et démontre que l'adaptation fine d'un modèle à partir du népalais voisin permet d'atteindre des performances de reconnaissance automatique de la parole comparables à celles des grands modèles multilingues, offrant ainsi une solution efficace pour cette langue en danger.

Rishikesh Kumar Sharma, Safal Narshing Shrestha, Jenny Poudel, Rupak Tiwari, Arju Shrestha, Rupak Raj Ghimire, Bal Krishna Bal2026-03-10💬 cs.CL

KCoEvo: A Knowledge Graph Augmented Framework for Evolutionary Code Generation

Ce papier présente KCoEvo, un cadre enrichi par des graphes de connaissances qui améliore la génération de code évolutif en décomposant la tâche de migration en deux étapes synergiques de récupération de chemins d'évolution et de génération de code informée, surpassant ainsi les modèles de langage standards en précision et en taux de succès d'exécution.

Jiazhen Kang, Yuchen Lu, Chen Jiang, Jinrui Liu, Tianhao Zhang, Bo Jiang, Ningyuan Sun, Tongtong Wu, Guilin Qi2026-03-10💬 cs.CL