From Mice to Trains: Amortized Bayesian Inference on Graph Data

Cet article propose une méthode d'inférence bayésienne amortie adaptée aux données graphiques, combinant des encodeurs invariants par permutation et des estimateurs de posterior neuronaux pour effectuer une inférence rapide et sans vraisemblance sur des paramètres de nœuds, d'arêtes et de graphes dans des domaines variés allant de la biologie à la logistique.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian Bürkner2026-03-10🤖 cs.LG

DevBench: A Realistic, Developer-Informed Benchmark for Code Generation Models

Le papier présente DevBench, un benchmark réaliste et fondé sur des données de télémétrie de développeurs qui évalue neuf modèles de langage avancés sur des tâches de complétion de code en privilégiant la validité écologique et des diagnostics détaillés pour guider leur déploiement pratique.

Pareesa Ameneh Golnari, Adarsh Kumarappan, Wen Wen, Xiaoyu Liu, Gabriel Ryan, Yuting Sun, Shengyu Fu, Elsie Nallipogu2026-03-10🤖 cs.LG

ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

Le papier propose ELSA, un cadre novateur combinant l'apprentissage fractionné et l'apprentissage fédéré hiérarchique pour optimiser le fine-tuning de modèles de langage à grande échelle sur le réseau de périphérie tout en garantissant la confidentialité des données et en surmontant les contraintes de ressources et d'hétérogénéité.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

Cet article propose une architecture d'inférence CNN continue et adaptée au débit de données pour FPGA, qui résout le problème de sous-utilisation des unités matérielles causé par la réduction du flux de données dans les couches de convolution et de pooling, permettant ainsi d'atteindre une utilisation matérielle proche de 100 % et d'exécuter des réseaux complexes comme MobileNet sur une seule puce avec un haut débit.

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

Le papier présente MeanCache, un cadre d'accélération sans entraînement pour l'inférence Flow Matching qui remplace le cache de vitesse instantanée par une approche de vitesse moyenne utilisant des produits Jacobien-vecteur, permettant d'obtenir des accélérations allant jusqu'à 4,56 fois sur des modèles de pointe comme FLUX.1 tout en préservant la qualité de génération.

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG

PASS: Certified Subset Repair for Classical and Quantum Pairwise Constrained Clustering

Le framework PASS propose une méthode évolutive pour le clustering k-moyennes avec contraintes pairwise, qui optimise un sous-ensemble réduit tout en garantissant la faisabilité des contraintes de type « cannot-link » via un certificat de réparation vérifiable, permettant ainsi des solutions efficaces sur des instances complexes où les méthodes de référence échouent.

Pedro Chumpitaz-Flores, My Duong, Ying Mao, Kaixun Hua2026-03-10🤖 cs.LG

Model-Free Neural State Estimation in Nonlinear Dynamical Systems: Comparing Neural and Classical Filters

Cette étude présente une comparaison systématique montrant que les modèles neuronaux sans modèle, en particulier les réseaux d'état d'espace, atteignent des performances d'estimation d'état comparables aux filtres de Kalnon linéaires forts et surpassent les méthodes classiques plus faibles, tout en offrant un débit d'inférence nettement supérieur.

Zhuochen Liu, Hans Walker, Rahul Jain2026-03-10🤖 cs.LG

Transferable Graph Condensation from the Causal Perspective

Ce papier propose TGCC, une nouvelle méthode de condensation de graphes fondée sur l'invariance causale qui extrait des caractéristiques invariantes au domaine et les injecte via un apprentissage contrastif spectral pour améliorer significativement les performances dans des scénarios de transfert inter-domaines et inter-tâches.

Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou2026-03-10🤖 cs.LG

FlowSymm: Physics Aware, Symmetry Preserving Graph Attention for Network Flow Completion

Le papier présente FlowSymm, une architecture innovante qui combine des actions de groupe sur des flux sans divergence, un encodeur d'attention graphique et un raffinement Tikhonov pour compléter les flux réseau manquants tout en respectant strictement les lois de conservation locales et en surpassant les méthodes de l'état de l'art sur divers benchmarks réels.

Ege Demirci, Francesco Bullo, Ananthram Swami, Ambuj Singh2026-03-10🤖 cs.LG

Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Cette étude démontre que, pour la détection de valeurs humaines au niveau des phrases, la structure hiérarchique des valeurs de Schwartz est plus efficace en tant que biais inductif que comme règle de routage rigide, les meilleurs résultats étant obtenus grâce à l'ajustement des seuils et à l'ensemblage plutôt qu'aux architectures hiérarchiques strictes ou aux modèles de langage compacts.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

LatentMem: Customizing Latent Memory for Multi-Agent Systems

Le papier présente LatentMem, un cadre de mémoire multi-agent apprenable qui surmonte l'homogénéisation et la surcharge d'informations grâce à une composition de mémoires latentes spécifiques aux agents et à une optimisation par politique (LMPO), permettant d'obtenir des performances supérieures sans modifier les systèmes existants.

Muxin Fu, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

Le papier présente T2T, un cadre de récompense dynamique inspiré de l'apprentissage humain qui améliore le raisonnement des grands modèles de langage en favorisant l'exploration via des trajectoires plus longues lors des erreurs et en encourageant l'efficacité par des pénalités de longueur une fois la solution correcte trouvée.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

Cet article présente les Radial Müntz-Szász Networks (RMN), une architecture neuronale innovante utilisant des puissances radiales apprissables et un terme logarithmique pour modéliser avec une grande précision et une efficacité paramétrique inégalée les champs singuliers radiaux que les réseaux de neurones classiques peinent à représenter.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG