Knowledge Graphs are Implicit Reward Models: Path-Derived Signals Enable Compositional Reasoning

Cet article propose une méthode d'apprentissage post-entraînement où les graphes de connaissances servent de modèles de récompense implicites pour guider les grands modèles de langage vers un raisonnement compositionnel, leur permettant de surpasser des systèmes frontier dans des tâches médicales complexes grâce à une généralisation zéro-shot.

Yuval Kansal, Niraj K. Jha2026-03-05✓ Author reviewed 🤖 cs.AI

NRR-Phi: Text-to-State Mapping for Ambiguity Preservation in LLM Inference

Le papier présente NRR-Phi, un cadre formel de mappage texte-état qui transforme le langage naturel en un espace d'états non-collapsant préservant les multiples interprétations ambiguës grâce à une pipeline hybride de détection de conflits et d'extraction, comblant ainsi le lien algorithmique manquant entre le texte et l'espace d'états du Raisonnement Non-Résolutif (NRR) pour retarder l'effondrement sémantique prématuré des grands modèles de langage.

Kei Saito2026-03-05🤖 cs.AI

When Silence Is Golden: Can LLMs Learn to Abstain in Temporal QA and Beyond?

Cette étude présente la première analyse empirique de l'apprentissage de l'abstention chez les grands modèles de langage pour le questionnement temporel, démontrant qu'un pipeline combinant la supervision par chaîne de pensée et l'apprentissage par renforcement permet de surpasser les modèles de pointe comme GPT-4o tout en améliorant significativement la fiabilité sur les questions non répondables.

Xinyu Zhou, Chang Jin, Carsten Eickhoff + 2 more2026-03-05🤖 cs.AI

To Think or Not To Think, That is The Question for Large Reasoning Models in Theory of Mind Tasks

Cette étude révèle que les modèles de raisonnement avancés n'améliorent pas systématiquement les performances dans les tâches de théorie de l'esprit, et peuvent même y échouer en raison d'une dépendance aux raccourcis de correspondance d'options et d'une inefficacité du raisonnement prolongé, soulignant ainsi la nécessité de développer des capacités spécifiques au-delà des méthodes de raisonnement actuelles.

Nanxu Gong, Haotian Li, Sixun Dong + 3 more2026-03-05🤖 cs.AI

Meenz bleibt Meenz, but Large Language Models Do Not Speak Its Dialect

Cette étude pionnière en traitement automatique des langues présente le premier jeu de données numérique pour le dialecte de Mayence (Meenzerisch) et démontre que les grands modèles de langage actuels échouent à le comprendre ou à le générer avec précision, soulignant ainsi l'urgence de développer davantage de ressources pour la préservation des dialectes allemands.

Minh Duc Bui, Manuel Mager, Peter Herbert Kann + 1 more2026-03-05💬 cs.CL

Extending Czech Aspect-Based Sentiment Analysis with Opinion Terms: Dataset and LLM Benchmarks

Cet article présente un nouveau jeu de données tchèque enrichi en termes d'opinion pour l'analyse de sentiment basée sur les aspects dans le domaine de la restauration, accompagné d'une évaluation approfondie de modèles de langage et d'une méthode de traduction et d'alignement des étiquettes pour surmonter les défis des langues à ressources limitées.

Jakub Šmíd, Pavel Přibáň, Pavel Král2026-03-05💬 cs.CL

Prompt Sensitivity and Answer Consistency of Small Open-Source Large Language Models on Clinical Question Answering: Implications for Low-Resource Healthcare Deployment

Cette étude démontre que, pour le déploiement clinique en ressources limitées, Llama 3.2 3B offre le meilleur équilibre entre précision et fiabilité, tout en révélant que les modèles à faible coût peuvent être constamment erronés et que l'entraînement de domaine seul ne suffit pas sans instruction.

Shravani Hariprasad2026-03-05🤖 cs.AI