LAGO: A Local-Global Optimization Framework Combining Trust Region Methods and Bayesian Optimization

Le papier présente LAGO, un cadre d'optimisation combinant l'optimisation bayésienne améliorée par le gradient et des méthodes de région de confiance locales via un mécanisme de compétition adaptatif, permettant d'explorer efficacement l'espace de conception tout en assurant une convergence rapide dans les régions prometteuses.

Eliott Van Dieren, Tommaso Vanzan, Fabio Nobile2026-03-04🤖 cs.LG

Variance reduction in lattice QCD observables via normalizing flows

Cet article présente l'application des flux normalisants pour réduire considérablement la variance des observables en QCD sur réseau, notamment pour les fonctions de corrélation de glueballs et les éléments de matrice gluoniques, tout en démontrant que cette efficacité est indépendante du volume du réseau, permettant ainsi d'optimiser les coûts de calcul.

Ryan Abbott, Denis Boyda, Yang Fu + 5 more2026-03-04⚛️ hep-lat

Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients

Cet article propose CAFedCL, un cadre d'apprentissage contrastif fédéré qui brise le biais des prototypes dans les environnements déséquilibrés grâce à une agrégation consciente de la confiance, à une augmentation générative et à une régularisation géométrique, garantissant ainsi une meilleure précision et équité.

Tian-Shuang Wu, Shen-Huan Lyu, Ning Chen + 4 more2026-03-04🤖 cs.LG

SEHFS: Structural Entropy-Guided High-Order Correlation Learning for Multi-View Multi-Label Feature Selection

Cet article propose SEHFS, une nouvelle méthode de sélection de caractéristiques pour l'apprentissage multi-vues multi-étiquettes qui utilise l'entropie structurelle pour capturer des corrélations d'ordre supérieur et un cadre hybride théorie de l'information-matrice pour éviter les optima locaux, surpassant ainsi les méthodes existantes sur plusieurs jeux de données.

Cheng Peng, Yonghao Li, Wanfu Gao + 2 more2026-03-04🤖 cs.LG

Step-Level Sparse Autoencoder for Reasoning Process Interpretation

Cet article propose un autoencodeur épars au niveau des étapes (SSAE) pour interpréter les processus de raisonnement des grands modèles de langage en décomposant les étapes de raisonnement en caractéristiques éparses, permettant ainsi de prédire des propriétés complexes comme la validité logique et d'éclairer les mécanismes d'auto-vérification de ces modèles.

Xuan Yang, Jiayu Liu, Yuhang Lai + 3 more2026-03-04🤖 cs.LG

cPNN: Continuous Progressive Neural Networks for Evolving Streaming Time Series

Cet article propose les cPNN (Réseaux de Neurones Progressifs Continus), une méthode basée sur les réseaux de neurones récurrents qui permet d'apprendre efficacement des séries temporelles en flux continu en gérant simultanément les dépendances temporelles, les changements de distribution (dérive de concept) et en évitant l'oubli catastrophique.

Federico Giannini, Giacomo Ziffer, Emanuele Della Valle2026-03-04🤖 cs.AI

Reinforcement Learning with Symbolic Reward Machines

Cet article propose les Machines de Récompense Symboliques (SRM) et leurs algorithmes d'apprentissage associés, QSRM et LSRM, pour surmonter les limites des Machines de Récompense traditionnelles en éliminant le besoin d'une fonction d'étiquetage manuelle tout en maintenant des performances supérieures et une interprétabilité des tâches dans les cadres d'apprentissage par renforcement standards.

Thomas Krug, Daniel Neider2026-03-04🤖 cs.AI

Safe and Robust Domains of Attraction for Discrete-Time Systems: A Set-Based Characterization and Certifiable Neural Network Estimation

Cet article propose un cadre novateur combinant une caractérisation mathématique par des fonctions de valeur et une estimation certifiée via des réseaux de neurones physiquement informés pour déterminer les domaines d'attraction sûrs et robustes de systèmes non linéaires discrets incertains soumis à des contraintes d'état.

Mohamed Serry, Maxwell Fitzsimmons, Jun Liu2026-03-04⚡ eess

On the Expressive Power of Transformers for Maxout Networks and Continuous Piecewise Linear Functions

Cet article démontre que les réseaux de transformateurs possèdent une puissance expressive comparable à celle des réseaux maxout et des fonctions linéaires par morceaux continues, en établissant que leurs couches d'attention réalisent des opérations de type max et que leur profondeur permet une croissance exponentielle du nombre de régions linéaires.

Linyan Gu, Lihua Yang, Feng Zhou2026-03-04🤖 cs.AI

Multi-Scale Adaptive Neighborhood Awareness Transformer For Graph Fraud Detection

Cet article propose MANDATE, un transformateur multi-échelle adaptatif qui améliore la détection de fraude sur les graphes en atténuant les biais inductifs des GNN grâce à un codage de position multi-échelle, des stratégies d'embedding différenciées pour les connexions homophiles et hétérophiles, et une fusion d'embedding pour les graphes multi-relationnels.

Jiaqi Lv, Qingfeng Du, Yu Zhang + 2 more2026-03-04🤖 cs.AI

Channel-Adaptive Edge AI: Maximizing Inference Throughput by Adapting Computational Complexity to Channel States

Cet article propose un modèle analytique et un algorithme d'IA adaptatif au canal qui maximisent le débit d'inférence dans les réseaux 6G en ajustant dynamiquement la complexité computationnelle et la compression des caractéristiques en fonction de l'état du canal, tout en respectant les contraintes de latence et de précision.

Jierui Zhang, Jianhao Huang, Kaibin Huang2026-03-04🤖 cs.AI