Meenz bleibt Meenz, but Large Language Models Do Not Speak Its Dialect

Cette étude pionnière en traitement automatique des langues présente le premier jeu de données numérique pour le dialecte de Mayence (Meenzerisch) et démontre que les grands modèles de langage actuels échouent à le comprendre ou à le générer avec précision, soulignant ainsi l'urgence de développer davantage de ressources pour la préservation des dialectes allemands.

Minh Duc Bui, Manuel Mager, Peter Herbert Kann + 1 more2026-03-05💬 cs.CL

Extending Czech Aspect-Based Sentiment Analysis with Opinion Terms: Dataset and LLM Benchmarks

Cet article présente un nouveau jeu de données tchèque enrichi en termes d'opinion pour l'analyse de sentiment basée sur les aspects dans le domaine de la restauration, accompagné d'une évaluation approfondie de modèles de langage et d'une méthode de traduction et d'alignement des étiquettes pour surmonter les défis des langues à ressources limitées.

Jakub Šmíd, Pavel Přibáň, Pavel Král2026-03-05💬 cs.CL

Prompt Sensitivity and Answer Consistency of Small Open-Source Large Language Models on Clinical Question Answering: Implications for Low-Resource Healthcare Deployment

Cette étude démontre que, pour le déploiement clinique en ressources limitées, Llama 3.2 3B offre le meilleur équilibre entre précision et fiabilité, tout en révélant que les modèles à faible coût peuvent être constamment erronés et que l'entraînement de domaine seul ne suffit pas sans instruction.

Shravani Hariprasad2026-03-05🤖 cs.AI

Learning to Generate and Extract: A Multi-Agent Collaboration Framework For Zero-shot Document-level Event Arguments Extraction

Cet article propose un cadre de collaboration multi-agents inspiré du processus cognitif humain « proposer-évaluer-réviser » pour améliorer l'extraction d'arguments d'événements au niveau du document en configuration zéro-shot, en générant et en optimisant itérativement des données synthétiques via un apprentissage par renforcement afin de surmonter les limites des méthodes existantes.

Guangjun Zhang, Hu Zhang, Yazhou Han + 4 more2026-03-05🤖 cs.AI

AriadneMem: Threading the Maze of Lifelong Memory for LLM Agents

AriadneMem est un système de mémoire structuré pour les agents LLM qui améliore la précision des réponses multi-sauts et la gestion des mises à jour d'état tout en réduisant considérablement le temps d'exécution et l'utilisation du contexte, grâce à une approche en deux phases combinant filtrage, coalescence conflictuelle et découverte algorithmique de liens dans un graphe.

Wenhui Zhu, Xiwen Chen, Zhipeng Wang + 11 more2026-03-05🤖 cs.AI

Fine-Tuning and Evaluating Conversational AI for Agricultural Advisory

Cette étude présente une architecture hybride de modèles de langage, combinant un fine-tuning supervisé sur des faits agricoles vérifiés et une couche d'adaptation culturelle, qui améliore la fiabilité, la sécurité et le rapport coût-efficacité des systèmes d'avis agricoles pour les petits exploitants, tout en introduisant un cadre d'évaluation rigoureux et une bibliothèque de prompts open source.

Sanyam Singh, Naga Ganesh, Vineet Singh + 8 more2026-03-05🤖 cs.AI

Language Model Goal Selection Differs from Humans' in an Open-Ended Task

Cette étude révèle que, contrairement à l'exploration diversifiée des humains, les grands modèles de langage actuels divergent considérablement dans la sélection de leurs objectifs en privilégiant l'exploitation de solutions uniques ou affichant de faibles performances, ce qui remet en cause leur fiabilité en tant que substituts aux préférences humaines dans des tâches ouvertes.

Gaia Molinaro, Dave August, Danielle Perszyk + 1 more2026-03-05🤖 cs.AI

How LLMs Cite and Why It Matters: A Cross-Model Audit of Reference Fabrication in AI-Assisted Academic Writing and Methods to Detect Phantom Citations

Cette étude audite la fabrication de références par dix grands modèles de langage dans quatre domaines académiques, révélant des taux d'hallucination variables et démontrant que la vérification par consensus multi-modèles ou la répétition dans l'invite, ainsi qu'un classifieur léger basé sur les caractéristiques bibliographiques, constituent des méthodes efficaces pour détecter les citations fantômes sans requérir de bases de données externes.

MZ Naser2026-03-05💬 cs.CL