Federated Inference: Toward Privacy-Preserving Collaborative and Incentivized Model Serving

Cet article propose une perspective unifiée sur l'inférence fédérée en la définissant comme un paradigme collaboratif distinct de l'apprentissage fédéré, qui permet à des modèles privés de coopérer lors de l'inférence tout en préservant la confidentialité des données et des paramètres, tout en identifiant les défis techniques et incitatifs nécessaires à sa mise en œuvre pratique.

Jungwon Seo, Ferhat Ozgur Catak, Chunming Rong + 1 more2026-03-05🤖 cs.AI

Toward Early Quality Assessment of Text-to-Image Diffusion Models

Ce travail propose Probe-Select, un module plug-in qui évalue la qualité des images dès les premières étapes de la génération par diffusion ou matching de flux en exploitant les activations intermédiaires, permettant ainsi d'arrêter précocement les échantillons peu prometteurs et de réduire les coûts de calcul de plus de 60 % tout en améliorant la qualité finale.

Huanlei Guo, Hongxin Wei, Bingyi Jing2026-03-05🤖 cs.LG

AriadneMem: Threading the Maze of Lifelong Memory for LLM Agents

AriadneMem est un système de mémoire structuré pour les agents LLM qui améliore la précision des réponses multi-sauts et la gestion des mises à jour d'état tout en réduisant considérablement le temps d'exécution et l'utilisation du contexte, grâce à une approche en deux phases combinant filtrage, coalescence conflictuelle et découverte algorithmique de liens dans un graphe.

Wenhui Zhu, Xiwen Chen, Zhipeng Wang + 11 more2026-03-05🤖 cs.AI

Fine-Tuning and Evaluating Conversational AI for Agricultural Advisory

Cette étude présente une architecture hybride de modèles de langage, combinant un fine-tuning supervisé sur des faits agricoles vérifiés et une couche d'adaptation culturelle, qui améliore la fiabilité, la sécurité et le rapport coût-efficacité des systèmes d'avis agricoles pour les petits exploitants, tout en introduisant un cadre d'évaluation rigoureux et une bibliothèque de prompts open source.

Sanyam Singh, Naga Ganesh, Vineet Singh + 8 more2026-03-05🤖 cs.AI

Knowledge Graph and Hypergraph Transformers with Repository-Attention and Journey-Based Role Transport

Cet article propose une architecture dual-stream qui entraîne conjointement des données textuelles et structurées en séparant les représentations linguistiques et les connaissances via un dépôt de clés-valeurs accessible par un mécanisme d'attention conditionné par le transport de rôles basé sur des parcours, unifiant ainsi la navigation dans les graphes de connaissances et les hypergraphes.

Mahesh Godavarti2026-03-05🤖 cs.AI

Draft-Conditioned Constrained Decoding for Structured Generation in LLMs

Le papier propose la méthode DCCD, un processus d'inférence sans entraînement qui améliore la génération structurée en découplant la planification sémantique de l'application de contraintes syntaxiques, permettant ainsi d'obtenir une précision nettement supérieure et une efficacité accrue par rapport aux méthodes de décodage contraint standard.

Avinash Reddy, Thayne T. Walker, James S. Ide + 1 more2026-03-05🤖 cs.AI

Towards Self-Robust LLMs: Intrinsic Prompt Noise Resistance via CoIPO

Cet article propose CoIPO, une méthode d'optimisation des préférences inverses basée sur l'apprentissage contrastif qui améliore la robustesse intrinsèque des grands modèles de langage face aux variations de prompts en minimisant l'écart entre les logits générés par des prompts propres et bruyants, validée par de nouveaux benchmarks et jeux de données.

Xin Yang, Letian Li, Abudukelimu Wuerkaixi + 5 more2026-03-05🤖 cs.AI

M-QUEST -- Meme Question-Understanding Evaluation on Semantics and Toxicity

Ce papier présente M-QUEST, un cadre sémantique et un benchmark de 609 paires question-réponse conçus pour évaluer la capacité des modèles de langage à interpréter la toxicité des mèmes en intégrant dix dimensions clés, révélant que les modèles avec instruction tuning surpassent les autres tout en restant limités sur les inférences pragmatiques.

Stefano De Giorgis, Ting-Chih Chen, Filip Ilievski2026-03-05🤖 cs.AI

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Cette étude évalue la robustesse de 13 grands modèles de langage face à cinq types de perturbations dans le raisonnement par chaîne de pensée, révélant des vulnérabilités hétérogènes où l'augmentation de la taille du modèle atténue certaines erreurs mathématiques mais offre une protection limitée contre les problèmes de conversion d'unités.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI