PrefDisco: Benchmarking Proactive Personalized Reasoning

Ce papier présente PrefDisco, une nouvelle méthode d'évaluation et une métrique de préférence (PrefAlign) conçues pour mesurer la capacité des modèles de langage à adapter leur raisonnement aux préférences individuelles des utilisateurs dans des scénarios interactifs, révélant ainsi la nécessité d'un développement dédié pour une personnalisation proactive efficace.

Shuyue Stella Li, Avinandan Bose, Faeze Brahman + 4 more2026-03-06💻 cs

Detecting Hallucinations in Authentic LLM-Human Interactions

Ce papier présente AuthenHallu, le premier benchmark de détection d'hallucinations entièrement construit à partir d'interactions authentiques entre humains et LLM, révélant un taux d'hallucinations significatif (31,4 % en moyenne, atteignant 60 % dans des domaines complexes) et démontrant les limites actuelles des modèles de langage à détecter ces erreurs dans des scénarios réels.

Yujie Ren, Niklas Gruhlke, Anne Lauscher2026-03-06💻 cs

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

Cette étude démontre que le fine-tuning sur des domaines restreints laisse des traces lisibles dans les activations des grands modèles de langage, permettant d'identifier le domaine d'entraînement et d'améliorer l'interprétabilité, tout en avertissant que ces biais, liés au surapprentissage, peuvent fausser les recherches sur la sécurité et l'alignement si l'on utilise ces modèles comme proxy pour des ajustements plus larges.

Julian Minder, Clément Dumas, Stewart Slocum + 4 more2026-03-06💻 cs

ReFusion: A Diffusion Large Language Model with Parallel Autoregressive Decoding

Le papier présente ReFusion, un modèle de diffusion masqué innovant qui combine le réordonnancement de séquences et le cadre d'attention causale pour permettre un décodage parallèle efficace avec mise en cache KV, surmontant ainsi les limitations de vitesse et de cohérence des modèles de diffusion existants tout en rivalisant avec les modèles autoregressifs.

Jia-Nan Li, Jian Guan, Wei Wu + 1 more2026-03-06💻 cs

From Word to World: Can Large Language Models be Implicit Text-based World Models?

Cette étude propose un cadre d'évaluation à trois niveaux pour déterminer dans quelles conditions les grands modèles de langage peuvent servir de modèles du monde textuels fiables, démontrant qu'ils améliorent l'apprentissage des agents par la génération de trajectoires et la vérification d'actions, tout en soulignant que ces bénéfices dépendent crucialement de la couverture comportementale et de la complexité de l'environnement.

Yixia Li, Hongru Wang, Jiahao Qiu + 7 more2026-03-06💻 cs

When Do Tools and Planning Help Large Language Models Think? A Cost- and Latency-Aware Benchmark

Cette étude démontre que l'ajout de planification et d'outils externes aux grands modèles de langage améliore significativement la précision sur des tâches de raisonnement complexe comme la réponse aux questions événementielles, mais au prix d'une latence accrue et sans bénéfice systématique pour des tâches comme la persuasion, soulignant ainsi la nécessité de choix stratégiques adaptés au coût et à la nature de la tâche.

Subha Ghoshal, Ali Al-Bustami2026-03-06💻 cs