MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems

Cet article propose une méthode novatrice intégrant les chaînes de Markov Monte Carlo (MCMC) directement dans l'entraînement des réseaux de neurones pour quantifier l'incertitude paramétrique des systèmes dynamiques, permettant ainsi de surmonter les limitations de temps de calcul et les valeurs de paramètres non physiques tout en restant agnostique à l'architecture du réseau.

Heikki Haario, Zhi-Song Liu, Martin Simon, Hendrik Weichel2026-03-12🤖 cs.LG

ForwardFlow: Simulation only statistical inference using deep learning

Le papier « ForwardFlow » propose une méthode d'inférence statistique fréquentiste basée sur l'apprentissage profond, utilisant un réseau neuronal unique entraîné sur des données simulées pour résoudre directement le problème inverse d'estimation de paramètres avec une exactitude en échantillon fini, une robustesse aux contaminations et une capacité à approximer des algorithmes complexes.

Stefan Böhringer2026-03-12📊 stat

Bayesian Optimization with Gaussian Processes to Accelerate Stationary Point Searches

Cet article présente un cadre unifié d'optimisation bayésienne utilisant des processus gaussiens pour accélérer la recherche de points stationnaires sur les surfaces d'énergie potentielle, en intégrant des extensions innovantes et un code pédagogique en Rust pour améliorer l'efficacité et la précision des calculs.

Rohit Goswami (Institute IMX and Lab-COSMO, École polytechnique fédérale de Lausanne)2026-03-12📊 stat

Factorized Neural Implicit DMD for Parametric Dynamics

Cet article propose une méthode d'apprentissage automatique sans modèle, nommée Factorized Neural Implicit DMD, qui paramétrise la décomposition spectrale de l'opérateur de Koopman via un champ neuronal codé par la physique pour prédire la dynamique temporelle de systèmes complexes en fonction de paramètres, permettant ainsi des prévisions stables à long terme et une analyse spectrale sans nécessiter la connaissance explicite des équations gouvernantes.

Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos2026-03-12🤖 cs.LG

Cross-Species Transfer Learning for Electrophysiology-to-Transcriptomics Mapping in Cortical GABAergic Interneurons

Cette étude démontre la reproductibilité du cadre de liaison électrophysiologie-transcriptomique chez la souris, valide l'efficacité des modèles séquentiels par rapport aux approches traditionnelles, et prouve que l'apprentissage par transfert de la souris vers l'homme améliore la prédiction des sous-types d'interneurones GABAergiques dans le cortex humain.

Theo Schwider, Ramin Ramezani2026-03-12🧬 q-bio

Leech Lattice Vector Quantization for Efficient LLM Compression

Cet article présente la quantification vectorielle par réseau de Leech (LLVQ), une méthode pratique et hautement performante pour la compression des grands modèles de langage qui surpasse les approches récentes en exploitant les propriétés optimales du réseau de Leech à 24 dimensions sans nécessiter de stockage explicite de codebook.

Tycho F. A. van der Ouderaa, Mart van Baalen, Paul Whatmough, Markus Nagel2026-03-12🤖 cs.LG

V2M-Zero: Zero-Pair Time-Aligned Video-to-Music Generation

Le papier présente V2M-Zero, une méthode de génération de musique à partir de vidéo sans données appariées qui assure un alignement temporel en exploitant les structures de changement communes entre les modalités via des courbes d'événements intra-modales, surpassant ainsi les approches basées sur des données appariées.

Yan-Bo Lin, Jonah Casebeer, Long Mai, Aniruddha Mahapatra, Gedas Bertasius, Nicholas J. Bryan2026-03-12🤖 cs.AI

Neural Field Thermal Tomography: A Differentiable Physics Framework for Non-Destructive Evaluation

Ce papier présente NeFTY, un cadre de physique différentiable qui permet la reconstruction 3D quantitative des propriétés matérielles et la détection de défauts souterrains à partir de mesures thermiques de surface, en surmontant les limitations des approches traditionnelles et des réseaux de neurones physiques contraints.

Tao Zhong, Yixun Hu, Dongzhe Zheng, Aditya Sood, Christine Allen-Blanchette2026-03-12🔬 cond-mat.mtrl-sci

A Survey on Decentralized Federated Learning

Ce sondage examine systématiquement les méthodes d'apprentissage fédéré décentralisé (DFL) jusqu'en 2026, en les classant selon deux architectures, en proposant une taxonomie centrée sur les défis, en évaluant les pratiques actuelles et en identifiant des axes de recherche prioritaires pour renforcer la sécurité, la vie privée et les mécanismes d'incitation dans des environnements sans coordinateur central.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele Tolomei2026-03-11🤖 cs.LG

Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets

En surmontant les limitations des outils mathématiques précédents grâce à une généralisation multidimensionnelle du problème de la somme de sous-ensembles, cet article démontre l'existence de « tickets gagnants » structurés dans des réseaux de neurones convolutifs sur-paramétrés, prouvant ainsi qu'ils peuvent approximer des réseaux plus petits sans entraînement.

Arthur da Cunha, Francesco d'Amore, Emanuele Natale2026-03-11🤖 cs.LG

Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps

Cet article présente un cadre d'apprentissage profond combinant la découverte de coordonnées et de cartes de flux pour améliorer l'efficacité computationnelle et la précision des simulations de systèmes multi-échelles complexes, comme démontré sur les modèles de FitzHugh-Nagumo et de Kuramoto-Sivashinsky.

Asif Hamid, Danish Rafiq, Shahkar Ahmad Nahvi, Mohammad Abid Bazaz2026-03-11🤖 cs.LG

Multi-agent Assessment with QoS Enhancement for HD Map Updates in a Vehicular Network

Cet article propose et évalue une solution d'apprentissage par renforcement multi-agent basée sur le Q-learning pour optimiser les mises à jour de cartes HD dans les réseaux véhiculaires, démontrant des réductions significatives de latence par rapport aux approches mono-agent tout en limitant la charge computationnelle et les problèmes de compatibilité.

Jeffrey Redondo, Nauman Aslam, Juan Zhang + 1 more2026-03-11🤖 cs.AI

Sparse Variational Student-t Processes for Heavy-tailed Modeling

Cet article présente les Processus de Student-t Variationnels Épars (SVTP), un cadre novateur qui étend la méthode des points d'induction aux processus de Student-t pour offrir une modélisation robuste des queues lourdes et des valeurs aberrantes, surpassant les processus gaussiens épars en précision et en vitesse de convergence tout en restant efficace sur de grands jeux de données.

Jian Xu, Delu Zeng, John Paisley2026-03-11🤖 cs.AI

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Ce papier propose un cadre unifié qui modélise la quantification et l'éparpillement comme du bruit additif et introduit une transformée de déquantification débruyante pour établir un chemin de gradient explicite, permettant ainsi l'entraînement robuste de réseaux de neurones à des précisions arbitraires et à des niveaux d'éparpillement extrêmes, y compris en dessous d'un bit.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew Howard2026-03-11🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

Le papier propose ARLBench, un benchmark flexible et efficace pour l'optimisation des hyperparamètres en apprentissage par renforcement, conçu pour permettre des comparaisons fiables entre différentes méthodes d'AutoRL tout en réduisant considérablement les besoins en ressources de calcul.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa Eimer2026-03-11🤖 cs.LG

DRUPI: Dataset Reduction Using Privileged Information

Le papier présente DRUPI, une méthode de condensation de dataset qui améliore l'efficacité de l'apprentissage en synthétisant, en plus des données réduites, des informations privilégiées (telles que des étiquettes de caractéristiques ou d'attention) servant de supervision auxiliaire.

Shaobo Wang, Youxin Jiang, Tianle Niu, Yantai Yang, Ruiji Zhang, Shuhao Hu, Shuaiyu Zhang, Chenghao Sun, Weiya Li, Conghui He, Xuming Hu, Linfeng Zhang2026-03-11🤖 cs.AI