Transferable Graph Condensation from the Causal Perspective

Ce papier propose TGCC, une nouvelle méthode de condensation de graphes fondée sur l'invariance causale qui extrait des caractéristiques invariantes au domaine et les injecte via un apprentissage contrastif spectral pour améliorer significativement les performances dans des scénarios de transfert inter-domaines et inter-tâches.

Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou2026-03-10🤖 cs.LG

FlowSymm: Physics Aware, Symmetry Preserving Graph Attention for Network Flow Completion

Le papier présente FlowSymm, une architecture innovante qui combine des actions de groupe sur des flux sans divergence, un encodeur d'attention graphique et un raffinement Tikhonov pour compléter les flux réseau manquants tout en respectant strictement les lois de conservation locales et en surpassant les méthodes de l'état de l'art sur divers benchmarks réels.

Ege Demirci, Francesco Bullo, Ananthram Swami, Ambuj Singh2026-03-10🤖 cs.LG

Do Schwartz Higher-Order Values Help Sentence-Level Human Value Detection? A Study of Hierarchical Gating and Calibration

Cette étude démontre que, pour la détection de valeurs humaines au niveau des phrases, la structure hiérarchique des valeurs de Schwartz est plus efficace en tant que biais inductif que comme règle de routage rigide, les meilleurs résultats étant obtenus grâce à l'ajustement des seuils et à l'ensemblage plutôt qu'aux architectures hiérarchiques strictes ou aux modèles de langage compacts.

Víctor Yeste, Paolo Rosso2026-03-10🤖 cs.LG

LatentMem: Customizing Latent Memory for Multi-Agent Systems

Le papier présente LatentMem, un cadre de mémoire multi-agent apprenable qui surmonte l'homogénéisation et la surcharge d'informations grâce à une composition de mémoires latentes spécifiques aux agents et à une optimisation par politique (LMPO), permettant d'obtenir des performances supérieures sans modifier les systèmes existants.

Muxin Fu, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

Le papier présente T2T, un cadre de récompense dynamique inspiré de l'apprentissage humain qui améliore le raisonnement des grands modèles de langage en favorisant l'exploration via des trajectoires plus longues lors des erreurs et en encourageant l'efficacité par des pénalités de longueur une fois la solution correcte trouvée.

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

Cet article présente les Radial Müntz-Szász Networks (RMN), une architecture neuronale innovante utilisant des puissances radiales apprissables et un terme logarithmique pour modéliser avec une grande précision et une efficacité paramétrique inégalée les champs singuliers radiaux que les réseaux de neurones classiques peinent à représenter.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

Le papier présente SDFed, un cadre d'apprentissage fédéré hétérogène pour les modèles vision-langage qui résout les disparités locales-globales en permettant des prompts locaux de longueur variable tout en maintenant un prompt global fixe, grâce à une raffinement de sous-espace et un contrôle de divergence pour améliorer la performance et la robustesse.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Diffusion-Guided Pretraining for Brain Graph Foundation Models

Cet article propose un cadre de préentraînement unifié basé sur la diffusion pour les modèles de fondation du cerveau, qui améliore l'apprentissage de représentations transférables en guidant des stratégies de masquage et de lecture respectueuses de la structure et de la topologie des graphes cérébraux, surpassant ainsi les méthodes existantes sur de vastes ensembles de données neuroimagerie.

Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang2026-03-10🤖 cs.LG

Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Cet article présente un cadre d'apprentissage automatique sans réponse qui exploite la structure sémantique des items de questionnaires psychologiques via l'analyse de sujets et le regroupement de plongements contextuels pour réduire efficacement la longueur des échelles tout en préservant leur validité psychométrique.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

TrasMuon: Trust-Region Adaptive Scaling for Orthogonalized Momentum Optimizers

L'article présente TrasMuon, un optimiseur qui améliore la stabilité et la convergence des méthodes Muon en combinant une calibration RMS globale et un recadrage par région de confiance basé sur l'énergie pour préserver la géométrie orthogonale tout en contrôlant les magnitudes des mises à jour.

Peng Cheng, Jiucheng Zang, Qingnan Li, Liheng Ma, Yufei Cui, Yingxue Zhang, Boxing Chen, Ming Jian, Wen Tong2026-03-10🤖 cs.LG

Benchmark Leakage Trap: Can We Trust LLM-based Recommendation?

Cet article met en évidence le problème critique de la fuite de données dans les benchmarks des systèmes de recommandation basés sur les LLM, démontrant que la mémorisation de ces données lors de l'entraînement peut fausser les performances mesurées, soit en les exagérant artificiellement, soit en les dégradant selon la pertinence du domaine.

Mingqiao Zhang, Qiyao Peng, Yumeng Wang, Chunyuan Liu, Hongtao Liu2026-03-10🤖 cs.LG

Mean Flow Policy with Instantaneous Velocity Constraint for One-step Action Generation

Cet article propose la politique de vitesse moyenne (MVP), une nouvelle fonction générative qui, grâce à une contrainte de vitesse instantanée, permet une génération d'actions en une seule étape tout en maintenant une grande expressivité et en surpassant les méthodes existantes en termes de précision et de rapidité sur des tâches de manipulation robotique.

Guojian Zhan, Letian Tao, Pengcheng Wang, Yixiao Wang, Yiheng Li, Yuxin Chen, Hongyang Li, Masayoshi Tomizuka, Shengbo Eben Li2026-03-10🤖 cs.LG