HiMAP-Travel: Hierarchical Multi-Agent Planning for Long-Horizon Constrained Travel

HiMAP-Travel est un cadre de planification hiérarchique multi-agents qui surpasse les approches séquentielles pour les voyages à long terme en décomposant la tâche en coordination stratégique et exécution parallèle, tout en garantissant le respect des contraintes budgétaires et de diversité grâce à des mécanismes de transaction, de négociation et d'un modèle unique entraîné par GRPO.

The Viet Bui, Wenjun Li, Yong Liu2026-03-06💻 cs

Stacked from One: Multi-Scale Self-Injection for Context Window Extension

Ce papier présente SharedLLM, une architecture innovante utilisant l'auto-injection de modèles à court contexte empilés pour compresser efficacement les longues séquences et étendre la fenêtre de contexte au-delà de 128K tokens, tout en réduisant la consommation mémoire et en accélérant l'inférence sans nécessiter un pré-entraînement coûteux sur de longs contextes.

Wei Han, Pan Zhou, Shuicheng Yan2026-03-06💻 cs

Beyond Linear LLM Invocation: An Efficient and Effective Semantic Filter Paradigm

Ce papier propose le paradigme CSV (Clustering-Sampling-Voting), un cadre innovant qui réduit la complexité des invocations de modèles de langage pour le filtrage sémantique à une complexité sous-linéaire tout en garantissant des erreurs maîtrisées, permettant ainsi de diminuer considérablement les coûts et la latence par rapport aux approches existantes.

Nan Hou, Kangfei Zhao, Jiadong Xie + 1 more2026-03-06💻 cs

Beyond the Context Window: A Cost-Performance Analysis of Fact-Based Memory vs. Long-Context LLMs for Persistent Agents

Cette étude compare l'efficacité et le coût d'un système de mémoire factuelle basé sur Mem0 à l'utilisation de modèles LLM à long contexte pour des agents conversationnels persistants, révélant que l'approche mémoire devient plus économique au-delà d'un certain seuil d'interactions tout en offrant des performances compétitives sur la cohérence des personnalités.

Natchanon Pollertlam, Witchayut Kornsuwannawit2026-03-06💬 cs.CL

From Unfamiliar to Familiar: Detecting Pre-training Data via Gradient Deviations in Large Language Models

Ce papier propose GDS, une méthode novatrice qui détecte les données de pré-entraînement des grands modèles de langage en analysant les écarts de gradient (magnitude, localisation et concentration neuronale) pour surmonter les limites des approches existantes et offrir une détection de haute performance avec une excellente transférabilité inter-ensembles.

Ruiqi Zhang, Lingxiang Wang, Hainan Zhang + 2 more2026-03-06💬 cs.CL

Can LLMs Capture Expert Uncertainty? A Comparative Analysis of Value Alignment in Ethnographic Qualitative Research

Cette étude évalue la capacité des grands modèles de langage à capturer l'incertitude des experts dans l'analyse qualitative de valeurs humaines selon la théorie de Schwartz, révélant qu'ils atteignent des performances proches du niveau humain sur des métriques d'ensemble mais divergent dans leurs structures d'incertitude et leurs biais systématiques, bien que l'agrégation de modèles et l'utilisation de modèles comme Qwen améliorent significativement l'alignement.

Arina Kostina, Marios Dikaiakos, Alejandro Porcel + 1 more2026-03-06💬 cs.CL