ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

Le papier propose ELSA, un cadre novateur combinant l'apprentissage fractionné et l'apprentissage fédéré hiérarchique pour optimiser le fine-tuning de modèles de langage à grande échelle sur le réseau de périphérie tout en garantissant la confidentialité des données et en surmontant les contraintes de ressources et d'hétérogénéité.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

Cet article propose une architecture d'inférence CNN continue et adaptée au débit de données pour FPGA, qui résout le problème de sous-utilisation des unités matérielles causé par la réduction du flux de données dans les couches de convolution et de pooling, permettant ainsi d'atteindre une utilisation matérielle proche de 100 % et d'exécuter des réseaux complexes comme MobileNet sur une seule puce avec un haut débit.

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

Le papier présente MeanCache, un cadre d'accélération sans entraînement pour l'inférence Flow Matching qui remplace le cache de vitesse instantanée par une approche de vitesse moyenne utilisant des produits Jacobien-vecteur, permettant d'obtenir des accélérations allant jusqu'à 4,56 fois sur des modèles de pointe comme FLUX.1 tout en préservant la qualité de génération.

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG

PASS: Certified Subset Repair for Classical and Quantum Pairwise Constrained Clustering

Le framework PASS propose une méthode évolutive pour le clustering k-moyennes avec contraintes pairwise, qui optimise un sous-ensemble réduit tout en garantissant la faisabilité des contraintes de type « cannot-link » via un certificat de réparation vérifiable, permettant ainsi des solutions efficaces sur des instances complexes où les méthodes de référence échouent.

Pedro Chumpitaz-Flores, My Duong, Ying Mao, Kaixun Hua2026-03-10🤖 cs.LG

Model-Free Neural State Estimation in Nonlinear Dynamical Systems: Comparing Neural and Classical Filters

Cette étude présente une comparaison systématique montrant que les modèles neuronaux sans modèle, en particulier les réseaux d'état d'espace, atteignent des performances d'estimation d'état comparables aux filtres de Kalnon linéaires forts et surpassent les méthodes classiques plus faibles, tout en offrant un débit d'inférence nettement supérieur.

Zhuochen Liu, Hans Walker, Rahul Jain2026-03-10🤖 cs.LG

Transferable Graph Condensation from the Causal Perspective

Ce papier propose TGCC, une nouvelle méthode de condensation de graphes fondée sur l'invariance causale qui extrait des caractéristiques invariantes au domaine et les injecte via un apprentissage contrastif spectral pour améliorer significativement les performances dans des scénarios de transfert inter-domaines et inter-tâches.

Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou2026-03-10🤖 cs.LG

FlowSymm: Physics Aware, Symmetry Preserving Graph Attention for Network Flow Completion

Le papier présente FlowSymm, une architecture innovante qui combine des actions de groupe sur des flux sans divergence, un encodeur d'attention graphique et un raffinement Tikhonov pour compléter les flux réseau manquants tout en respectant strictement les lois de conservation locales et en surpassant les méthodes de l'état de l'art sur divers benchmarks réels.

Ege Demirci, Francesco Bullo, Ananthram Swami, Ambuj Singh2026-03-10🤖 cs.LG

Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Cette étude démontre que, pour la détection de valeurs humaines au niveau des phrases, la structure hiérarchique des valeurs de Schwartz est plus efficace en tant que biais inductif que comme règle de routage rigide, les meilleurs résultats étant obtenus grâce à l'ajustement des seuils et à l'ensemblage plutôt qu'aux architectures hiérarchiques strictes ou aux modèles de langage compacts.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

LatentMem: Customizing Latent Memory for Multi-Agent Systems

Le papier présente LatentMem, un cadre de mémoire multi-agent apprenable qui surmonte l'homogénéisation et la surcharge d'informations grâce à une composition de mémoires latentes spécifiques aux agents et à une optimisation par politique (LMPO), permettant d'obtenir des performances supérieures sans modifier les systèmes existants.

Muxin Fu, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

Le papier présente T2T, un cadre de récompense dynamique inspiré de l'apprentissage humain qui améliore le raisonnement des grands modèles de langage en favorisant l'exploration via des trajectoires plus longues lors des erreurs et en encourageant l'efficacité par des pénalités de longueur une fois la solution correcte trouvée.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

Cet article présente les Radial Müntz-Szász Networks (RMN), une architecture neuronale innovante utilisant des puissances radiales apprissables et un terme logarithmique pour modéliser avec une grande précision et une efficacité paramétrique inégalée les champs singuliers radiaux que les réseaux de neurones classiques peinent à représenter.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

Le papier présente SDFed, un cadre d'apprentissage fédéré hétérogène pour les modèles vision-langage qui résout les disparités locales-globales en permettant des prompts locaux de longueur variable tout en maintenant un prompt global fixe, grâce à une raffinement de sous-espace et un contrôle de divergence pour améliorer la performance et la robustesse.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Diffusion-Guided Pretraining for Brain Graph Foundation Models

Cet article propose un cadre de préentraînement unifié basé sur la diffusion pour les modèles de fondation du cerveau, qui améliore l'apprentissage de représentations transférables en guidant des stratégies de masquage et de lecture respectueuses de la structure et de la topologie des graphes cérébraux, surpassant ainsi les méthodes existantes sur de vastes ensembles de données neuroimagerie.

Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang2026-03-10🤖 cs.LG