Data-driven robust Markov decision processes on Borel spaces: performance guarantees via an axiomatic approach

Cet article propose une approche axiomatique pour les processus de décision markoviens robustes sur les espaces boréliens, démontrant que l'utilisation d'un ensemble d'ambiguïté basé sur une fonction de distance permet d'obtenir des garanties de performance hors échantillon et des taux de convergence probabilistes que les MDP empiriques standards ne peuvent pas assurer.

Sivaramakrishnan RamaniWed, 11 Ma🤖 cs.LG

Statistical Inference via Generative Models: Flow Matching and Causal Inference

Ce livre réinterprète l'intelligence artificielle générative, en particulier le flow matching, comme un cadre statistique rigoureux pour l'apprentissage non paramétrique de distributions, permettant d'intégrer ces modèles dans l'inférence causale et l'analyse de données manquantes tout en garantissant la validité statistique grâce à des techniques de double apprentissage machine.

Shinto EguchiWed, 11 Ma🤖 cs.LG

Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

En vérifiant que les observateurs persistants dans les substrats d'hypergraphes satisfont le théorème du bon régulateur de Conant-Ashby, cet article démontre que l'apprentissage par gradient naturel est la règle d'apprentissage unique admissible et établit un lien théorique entre les cadres de Wolfram et de Vanchurin, tout en soulignant la forte dépendance de certaines prédictions quantiques aux modèles de convergence choisis.

Max ZhuravlevWed, 11 Ma🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Cet article propose un cadre d'échantillonnage génératif unifié et sans gradient ciblé, fondé sur la contrainte de réversibilité temporelle et la minimisation de la divergence MMD entre trajectoires, permettant d'apprendre efficacement des distributions complexes incluant des paramètres discrets ou hybrides sans nécessiter de fonctions de score.

Lei Li, Zhen Wang, Lishuo ZhangWed, 11 Ma🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Cet article propose de nouvelles bornes de généralisation transductive pour la classification de nœuds dans les graphes, basées sur le transport optimal et les distances de Wasserstein, qui sont à la fois calculables et mieux corrélées aux performances empiriques que les mesures de complexité classiques, tout en expliquant le compromis entre concentration intra-classe et séparation inter-classe induit par l'agrégation des GNN.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo KimWed, 11 Ma🤖 cs.LG

Robust Regularized Policy Iteration under Transition Uncertainty

Ce papier propose la Robust Regularized Policy Iteration (RRPI), une méthode d'apprentissage par renforcement hors ligne qui traite l'incertitude de transition via une optimisation robuste régularisée par KL pour garantir une convergence monotone et améliorer la performance sur les environnements D4RL en évitant les actions hors distribution.

Hongqiang Lin, Zhenghui Fu, Weihao Tang, Pengfei Wang, Yiding Sun, Qixian Huang, Dongxu ZhangWed, 11 Ma🤖 cs.AI

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Cet article propose un cadre unifié pour les factorisations de matrices non négatives (NMF) classique et convexe sous des hypothèses de bruit Tweedie et binomiales négatives, en dérivant des règles de mise à jour multiplicatives via des algorithmes MM et en démontrant leur efficacité supérieure sur des données réelles grâce à une implémentation logicielle disponible.

Elisabeth Sommer James, Asger Hobolth, Marta PelizzolaWed, 11 Ma🤖 cs.LG

Murmurations: a case study in AI-assisted mathematics

Cet article présente les « murmurations », un nouveau phénomène arithmétique découvert par l'intelligence artificielle via l'analyse de grands ensembles de données, qui encode des informations subtiles sur les traces de Frobenius et s'inscrit dans le cadre de la statistique arithmétique, reliant la conjecture de Birch et Swinnerton-Dyer à la théorie des matrices aléatoires.

Yang-Hui He, Kyu-Hwan Lee, Thomas Oliver, Alexey PozdnyakovWed, 11 Ma📊 stat

Upper Generalization Bounds for Neural Oscillators

Cette étude établit des bornes de généralisation PAC pour les oscillateurs neuronaux basés sur des équations différentielles d'ordre deux, démontrant que leurs erreurs d'estimation croissent polynomialement avec la taille du réseau et la durée temporelle, tout en validant que la régularisation des constantes de Lipschitz améliore leur performance sur des systèmes non linéaires complexes.

Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael BeerWed, 11 Ma🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Cet article propose un cadre unifié hiérarchique multi-tâches et multi-fidélité basé sur les processus gaussiens pour surmonter les limites de la modélisation de substitution dans la fabrication en exploitant simultanément les similarités inter-tâches et les caractéristiques des données hétérogènes, améliorant ainsi la précision des prédictions jusqu'à 23 % par rapport aux méthodes existantes.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui ShaoWed, 11 Ma🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

Ce papier propose une nouvelle famille d'optimiseurs, dont MOGA, basée sur des normes d'opérateurs moyennées et des normalisations par lignes/colonnes, qui garantissent une stabilité de l'apprentissage indépendante de la largeur du réseau et permettent un transfert efficace des hyperparamètres, surpassant ainsi les limitations de méthodes comme Muon.

Ruihan Xu, Jiajin Li, Yiping LuWed, 11 Ma🤖 cs.LG