AraModernBERT: Transtokenized Initialization and Long-Context Encoder Modeling for Arabic

Ce papier présente AraModernBERT, une adaptation de l'architecture ModernBERT à la langue arabe qui démontre l'importance cruciale de l'initialisation par transtokenisation et de la modélisation native de longs contextes jusqu'à 8 192 tokens pour améliorer les performances en compréhension du langage naturel.

Omar Elshehy, Omer Nacar, Abdelbasset Djamai, Muhammed Ragab, Khloud Al Jallad, Mona Abdelazim2026-03-12💬 cs.CL

MoE-SpAc: Efficient MoE Inference Based on Speculative Activation Utility in Heterogeneous Edge Scenarios

Ce papier présente MoE-SpAc, un cadre d'inférence pour les modèles MoE sur des périphériques hétérogènes qui réutilise le décodage spéculatif comme capteur prédictif pour optimiser la gestion de la mémoire et l'équilibrage de charge, permettant ainsi d'atteindre des gains de vitesse significatifs par rapport aux méthodes existantes.

Shuhuai Li, Jianghao Lin, Dongdong Ge, Yinyu Ye2026-03-12🤖 cs.LG

Quantifying Hallucinations in Language Language Models on Medical Textbooks

Cette étude quantifie la fréquence des hallucinations dans les réponses de modèles de langage à des questions médicales basées sur des manuels, révélant un taux d'hallucination de 19,7 % pour LLaMA-70B-Instruct malgré une haute plausibilité, et démontrant une corrélation entre des taux d'hallucination plus faibles et une préférence accrue des cliniciens.

Brandon C. Colelough, Davis Bartels, Dina Demner-Fushman2026-03-12💬 cs.CL

Evolving Demonstration Optimization for Chain-of-Thought Feature Transformation

Ce papier propose un cadre innovant qui optimise la transformation de caractéristiques pilotée par les grands modèles de langage en faisant évoluer dynamiquement un bibliothèque d'expériences de trajectoires validées, surpassant ainsi les méthodes existantes en termes de diversité, d'efficacité et de performance sur des tâches prédictives tabulaires.

Xinyuan Wang, Kunpeng Liu, Arun Vignesh Malarkkan, Yanjie Fu2026-03-12💬 cs.CL

Causally Grounded Mechanistic Interpretability for LLMs with Faithful Natural-Language Explanations

Cette étude propose un pipeline qui relie l'analyse des circuits causaux aux explications en langage naturel pour les LLM, démontrant sur la tâche d'identification d'objet indirect dans GPT-2 Small que les explications générées par LLM surpassent les modèles basés sur des templates, tout en révélant un manque de corrélation entre la confiance du modèle et la fidélité des explications.

Ajay Pravin Mahale2026-03-12💬 cs.CL

The System Hallucination Scale (SHS): A Minimal yet Effective Human-Centered Instrument for Evaluating Hallucination-Related Behavior in Large Language Models

Cet article présente l'Échelle d'Hallucination Systémique (SHS), un instrument léger et centré sur l'humain validé empiriquement pour évaluer la fiabilité factuelle et la cohérence des grands modèles de langage du point de vue de l'utilisateur, sans se substituer aux détecteurs automatiques.

Heimo Müller, Dominik Steiger, Markus Plass, Andreas Holzinger2026-03-12💬 cs.CL

A Two-Stage Architecture for NDA Analysis: LLM-based Segmentation and Transformer-based Clause Classification

Cet article propose une architecture à deux étapes automatisant l'analyse des accords de non-divulgation (NDA) en utilisant LLaMA-3.1-8B-Instruct pour la segmentation des clauses et un Legal-Roberta-Large affiné pour leur classification, atteignant des performances élevées avec un score F1 de 0,95 pour la segmentation et 0,85 pour la classification.

Ana Begnini, Matheus Vicente, Leonardo Souza2026-03-12💬 cs.CL

PoultryLeX-Net: Domain-Adaptive Dual-Stream Transformer Architecture for Large-Scale Poultry Stakeholder Modeling

L'article présente PoultryLeX-Net, une architecture de transformateur à double flux enrichie par un lexique et adaptée au domaine, qui surpasse les modèles de base pour l'analyse fine des sentiments dans le discours sur l'industrie avicole en atteignant une précision de 97,35 %.

Stephen Afrifa, Biswash Khatiwada, Kapalik Khanal, Sanjay Shah, Lingjuan Wang-Li, Ramesh Bahadur Bist2026-03-12💬 cs.CL

TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment

Ce papier présente TAMUSA-Chat, un cadre de recherche permettant aux institutions académiques de développer des systèmes conversationnels adaptés à leur domaine grâce à l'affinage supervisé et à la génération augmentée par récupération, tout en garantissant la transparence, la conformité et des pratiques responsables en matière d'IA.

Izzat Alsmadi, Anas Alsobeh2026-03-12💬 cs.CL

CEI: A Benchmark for Evaluating Pragmatic Reasoning in Language Models

Ce papier présente le benchmark CEI, un ensemble de données validé par des humains contenant 300 scénarios conçus pour évaluer la capacité des modèles de langage à effectuer un raisonnement pragmatique en inférant le sens intentionnel au-delà de la sémantique littérale dans divers contextes sociaux et relations de pouvoir.

Jon Chun, Hannah Sussman, Adrian Mangine, Murathan Kocaman, Kirill Sidorko, Abhigya Koirala, Andre McCloud, Gwen Eisenbeis, Wisdom Akanwe, Moustapha Gassama, Eliezer Gonzalez Chirinos, Anne-Duncan Enright, Peter Dunson, Tiffanie Ng, Anna von Rosenstiel, Godwin Idowu2026-03-12💬 cs.CL

Evaluating Adjective-Noun Compositionality in LLMs: Functional vs Representational Perspectives

Cette étude révèle une divergence frappante entre les représentations internes compositionnelles des grands modèles de langage et leur capacité à les traduire de manière cohérente en performances fonctionnelles lors de tâches d'adjectif-nom, soulignant ainsi la nécessité d'évaluations contrastives pour une compréhension complète de leurs capacités.

Ruchira Dhar, Qiwei Peng, Anders Søgaard2026-03-12💬 cs.CL

Context Over Compute Human-in-the-Loop Outperforms Iterative Chain-of-Thought Prompting in Interview Answer Quality

Cette étude démontre que, pour l'évaluation et l'amélioration des réponses aux entretiens comportementaux, une approche humaine en boucle surpasse l'itération par la chaîne de pensée automatisée en offrant une meilleure authenticité, une plus grande confiance et une convergence plus rapide grâce à une intégration contextuelle supérieure.

Kewen Zhu, Zixi Liu, Yanjing Li2026-03-12💬 cs.CL

Automated evaluation of LLMs for effective machine translation of Mandarin Chinese to English

Cette étude évalue automatiquement les performances de plusieurs grands modèles de langage (LLM) et de Google Translate pour la traduction du chinois mandarin vers l'anglais, révélant qu'ils excellent dans les articles de presse mais peinent encore à préserver les nuances culturelles et les références littéraires complexes.

Yue Zhang, Rodney Beard, John Hawkins, Rohitash Chandra2026-03-12💬 cs.CL

A Retrieval-Augmented Language Assistant for Unmanned Aircraft Safety Assessment and Regulatory Compliance

Ce papier présente la conception et la validation d'un assistant basé sur la récupération d'informations, ancré dans des sources réglementaires autoritaires, pour soutenir l'évaluation de la sécurité et la conformité normative des systèmes d'aéronefs sans pilote tout en garantissant la traçabilité et la responsabilité humaine.

Gabriele Immordino, Andrea Vaiuso, Marcello Righi2026-03-12💬 cs.CL

Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Ce papier présente la création de la base de données LatamQA, un ensemble de plus de 26 000 questions à choix multiples en espagnol et portugais dérivé de Wikidata et de Wikipédia, utilisé pour révéler les biais socioculturels et géographiques des grands modèles de langage envers les pays d'Amérique latine par rapport à l'Espagne.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)2026-03-12💬 cs.CL

SpreadsheetArena: Decomposing Preference in LLM Generation of Spreadsheet Workbooks

Ce papier présente SpreadsheetArena, une plateforme d'évaluation par comparaison aveugle conçue pour analyser les performances des modèles de langage dans la génération de classeurs Excel, révélant que les préférences varient considérablement selon les cas d'usage et que les modèles actuels peinent encore à respecter systématiquement les meilleures pratiques de domaine.

Srivatsa Kundurthy, Clara Na, Michael Handley, Zach Kirshner, Chen Bo Calvin Zhang, Manasi Sharma, Emma Strubell, John Ling2026-03-12💬 cs.CL