RexDrug: Reliable Multi-Drug Combination Extraction through Reasoning-Enhanced LLMs

Le papier présente RexDrug, un cadre d'extraction de relations amélioré par le raisonnement et basé sur des modèles de langage de grande taille, qui surpasse les méthodes existantes pour l'extraction fiable de combinaisons médicamenteuses complexes (n-aires) à partir de la littérature biomédicale grâce à une stratégie d'entraînement en deux étapes combinant un mécanisme collaboratif multi-agents et un apprentissage par renforcement.

Zhijun Wang, Ling Luo, Dinghao Pan, Huan Zhuang, Lejing Yu, Yuanyuan Sun, Hongfei Lin2026-03-10💬 cs.CL

TildeOpen LLM: Leveraging Curriculum Learning to Achieve Equitable Language Representation

Le papier présente TildeOpen LLM, un modèle de langage open-weight de 30 milliards de paramètres optimisé pour 34 langues européennes grâce à l'apprentissage par curriculum et à l'échantillonnage de données, permettant d'atteindre des performances supérieures et une équité linguistique accrue avec des ressources de calcul réduites.

Toms Bergmanis, Martins Kronis, Ingus J\=anis Pretkalninš, D\=avis Nicmanis, Jelizaveta Jelinska, Roberts Rozis, Rinalds V\=iksna, M\=arcis Pinnis2026-03-10💬 cs.CL

Supporting Workflow Reproducibility by Linking Bioinformatics Tools across Papers and Executable Code

Ce papier présente CoPaLink, une approche automatisée qui améliore la reproductibilité des workflows bioinformatiques en reliant les mentions d'outils dans les articles scientifiques à leur implémentation dans le code exécutable grâce à la reconnaissance d'entités nommées et à l'ancrage sur des bases de connaissances.

Clémence Sebe, Olivier Ferret, Aurélie Névéol, Mahdi Esmailoghli, Ulf Leser, Sarah Cohen-Boulakia2026-03-10💬 cs.CL

DualTurn: Learning Turn-Taking from Dual-Channel Generative Speech Pretraining

Le papier présente DualTurn, un modèle préentraîné sur des conversations audio à double canal qui génère de manière autonome les futures paroles des deux interlocuteurs pour apprendre implicitement la dynamique conversationnelle et prédire avec précision les signaux de prise de parole, surpassant ainsi les approches existantes en réduisant les interruptions et en anticipant plus tôt les transitions.

Shangeth Rajaa2026-03-10💬 cs.CL

Quantifying Cross-Lingual Transfer in Paralinguistic Speech Tasks

Cet article introduit la Matrice de Transfert Interlinguistique (CLTM), une méthode systématique pour quantifier les interactions entre paires de langues dans des tâches paralinguistiques, révélant que l'impact des données d'une langue source sur les performances d'une langue cible varie de manière significative selon la tâche et la langue, contredisant ainsi l'idée que ces tâches sont purement agnostiques à la langue.

Pol Buitrago, Oriol Pareras, Federico Costa, Javier Hernando2026-03-10💬 cs.CL

Bootstrapping Audiovisual Speech Recognition in Zero-AV-Resource Scenarios with Synthetic Visual Data

Ce papier propose un cadre d'apprentissage de la reconnaissance audiovisuelle de la parole pour des langues sans ressources, en générant des flux visuels synthétiques par synchronisation labiale d'images statiques avec de l'audio réel, permettant d'entraîner un modèle performant sur le catalan sans corpus vidéo annoté.

Pol Buitrago, Pol Gàlvez, Oriol Pareras, Javier Hernando2026-03-10💬 cs.CL

Not All Queries Need Deep Thought: CoFiCot for Adaptive Coarse-to-fine Stateful Refinement

Le papier présente CoFiCot, un cadre adaptatif de raffinement grossier-à-fin qui alloue dynamiquement des ressources de calcul en fonction de la difficulté des requêtes, en triant les questions via un classificateur multi-métrique et en appliquant une correction contextuelle étatique pour éviter la fragmentation du contexte tout en assurant la cohérence logique.

Dongxu Zhang, Hongqiang Lin, Yiding Sun, Pengyu Wang, Qirui Wang, Ning Yang, Jihua Zhu2026-03-10💬 cs.CL

NCL-UoR at SemEval-2026 Task 5: Embedding-Based Methods, Fine-Tuning, and LLMs for Word Sense Plausibility Rating

Ce papier présente la participation de NCL-UoR à la tâche 5 de SemEval-2026 sur l'évaluation de la plausibilité des sens des mots, démontrant qu'une stratégie d'incitation structurée avec des règles de décision surpasse les méthodes d'embedding et le fine-tuning, révélant que la conception de l'incitation est plus déterminante que l'échelle du modèle.

Tong Wu, Thanet Markchom, Huizhi Liang2026-03-10💬 cs.CL

How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms

Cette étude de 172 milliards de tokens, menée sur 35 modèles avec la méthodologie RIKER, révèle que les hallucinations dans les réponses documentaires augmentent considérablement avec la longueur du contexte, varient principalement selon le choix du modèle plutôt que la taille ou le matériel, et que l'ajustement de la température permet de réduire les boucles infinies au détriment d'une précision légèrement moindre.

JV Roig2026-03-10💬 cs.CL

AdaCultureSafe: Adaptive Cultural Safety Grounded by Cultural Knowledge in Large Language Models

L'article AdaCultureSafe propose un cadre intégrant connaissances et sécurité culturelles pour pallier le manque de corrélation entre ces deux aspects dans les grands modèles de langage, en s'appuyant sur un nouveau jeu de données vérifié manuellement et une méthode d'alignement qui améliore significativement la sécurité culturelle en ancrant les réponses dans des connaissances culturelles précises.

Hankun Kang, Di Lin, Zhirong Liao, Pengfei Bai, Xinyi Zeng, Jiawei Jiang, Yuanyuan Zhu, Tieyun Qian2026-03-10💬 cs.CL

LAMUS: A Large-Scale Corpus for Legal Argument Mining from U.S. Caselaw using LLMs

Ce papier présente LAMUS, un corpus à grande échelle pour l'extraction d'arguments juridiques à partir de décisions judiciaires américaines, construit grâce à une pipeline combinant collecte de données, annotation automatisée par des modèles de langage et raffinement humain, afin de pallier le manque de ressources annotées pour la recherche en TAL juridique.

Serene Wang, Lavanya Pobbathi, Haihua Chen2026-03-10💬 cs.CL

SlowBA: An efficiency backdoor attack towards VLM-based GUI agents

Ce papier présente SlowBA, une nouvelle attaque par porte dérobée qui cible l'efficacité des agents d'interface graphique basés sur des modèles vision-langage en induisant des chaînes de raisonnement excessivement longues via des déclencheurs discrets, augmentant ainsi considérablement la latence de réponse tout en préservant la précision des tâches.

Junxian Li, Tu Lan, Haozhen Tan, Yan Meng, Haojin Zhu2026-03-10💬 cs.CL

SPD-RAG: Sub-Agent Per Document Retrieval-Augmented Generation

Le papier présente SPD-RAG, un cadre hiérarchique multi-agents qui améliore la qualité et l'efficacité des systèmes de génération augmentée par la récupération (RAG) pour les questions complexes sur de vastes corpus de documents en traitant chaque document via un agent dédié et en fusionnant leurs réponses partielles.

Yagiz Can Akay, Muhammed Yusuf Kartal, Esra Alparslan, Faruk Ortakoyluoglu, Arda Akpinar2026-03-10💬 cs.CL