LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks

Le papier présente LoRA-Ensemble, une méthode efficace et économe en paramètres pour l'ensemble de modèles dans les réseaux à attention, qui utilise des matrices de faible rang partagées pour surpasser les techniques implicites existantes et égaler les ensembles explicites en précision tout en offrant une meilleure calibration des incertitudes.

Dominik J. Mühlematter, Michelle Halbheer, Alexander Becker, Dominik Narnhofer, Helge Aasen, Konrad Schindler, Mehmet Ozgur Turkoglu2026-03-10🤖 cs.LG

Exploring Diffusion Models' Corruption Stage in Few-Shot Fine-tuning and Mitigating with Bayesian Neural Networks

Cet article identifie et modélise théoriquement une phase de « corruption » lors du fine-tuning à peu d'exemples de modèles de diffusion, puis propose une solution basée sur les réseaux de neurones bayésiens qui atténue ce phénomène et améliore la fidélité et la diversité des images générées sans coût d'inférence supplémentaire.

Xiaoyu Wu, Jiaru Zhang, Yang Hua, Bohan Lyu, Hao Wang, Tao Song, Haibing Guan2026-03-10🤖 cs.LG

Estimating Treatment Effects under Algorithmic Interference: A Structured Neural Networks Approach

Cet article propose un cadre sémiparamétrique structuré combinant des modèles de choix algorithmique et de réponse des spectateurs, ainsi qu'une extension de l'apprentissage automatique double (DML), pour estimer sans biais les effets des traitements dans les marchés à deux faces où l'interférence algorithmique fausse les expériences randomisées classiques.

Ruohan Zhan, Shichao Han, Yuchen Hu, Zhenling Jiang2026-03-10🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Cet article propose une méthode d'échantillonnage par importance recuit (AIS) couplée à une reparamétrisation efficace pour surmonter les limitations des modèles latents à processus gaussiens (GPLVM) dans les espaces de grande dimension, permettant ainsi d'obtenir des bornes variationnelles plus serrées et une convergence plus robuste que les méthodes actuelles.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

Cette étude met en garde contre l'utilisation des explicateurs post hoc comme SHAP et LIME pour valider des hypothèses en recherche commerciale, démontrant que leur interprétation comme preuves de relations sous-jacentes dans les données est souvent erronée en raison de l'alignement imparfait et de l'effet Rashomon, et propose plutôt de les utiliser comme outils exploratoires.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu2026-03-10🤖 cs.LG

Reconsidering the energy efficiency of spiking neural networks

Cet article propose une réévaluation rigoureuse de l'efficacité énergétique des réseaux de neurones à impulsions (SNN) en comparant des modèles équivalents à des réseaux de neurones quantifiés (QNN) via un modèle analytique complet, révélant ainsi les conditions spécifiques où les SNN surpassent réellement les QNN et peuvent doubler l'autonomie des appareils portables.

Zhanglu Yan, Zhenyu Bai, Weng-Fai Wong2026-03-10🤖 cs.LG

xTED: Cross-Domain Adaptation via Diffusion-Based Trajectory Editing

Le papier présente xTED, un cadre innovant utilisant un modèle de diffusion pour adapter directement les trajectoires d'un domaine source à un domaine cible, comblant ainsi les écarts de domaine au niveau des données tout en préservant le sens sémantique et en facilitant l'apprentissage de politiques sans nécessiter d'architectures complexes.

Haoyi Niu, Qimao Chen, Tenglong Liu, Jianxiong Li, Guyue Zhou, Yi Zhang, Jianming Hu, Xianyuan Zhan2026-03-10🤖 cs.LG

Landscape of Policy Optimization for Finite Horizon MDPs with General State and Action

Cet article établit que les méthodes de gradient de politique convergent vers une politique globalement optimale avec un taux non asymptotique pour une classe d'MDPs à horizon fini et espaces d'état et d'action généraux, en démontrant que leur paysage d'optimisation satisfait la condition Polyak-Łojasiewicz-Kurdyka, ce qui permet d'obtenir des garanties de complexité d'échantillonnage inédites pour des modèles opérationnels tels que les systèmes d'inventaire et les soldes de trésorerie stochastiques.

Xin Chen, Yifan Hu, Minda Zhao2026-03-10🤖 cs.LG

Neural delay differential equations: learning non-Markovian closures for partially known dynamical systems

Cet article propose un cadre d'équations différentielles à retard neuronal (NDDE) inspiré du formalisme de Mori-Zwanzig pour apprendre efficacement des dynamiques non markoviennes à partir de systèmes partiellement observables, surpassant ainsi les méthodes existantes comme les réseaux LSTM et les ANODEs.

Thibault Monsel, Onofrio Semeraro, Lionel Mathelin, Guillaume Charpiat2026-03-10🤖 cs.LG

Transformers as Implicit State Estimators: In-Context Learning in Dynamical Systems

Cette étude démontre que les transformers, utilisés en apprentissage en contexte, peuvent estimer implicitement les états cachés et prédire avec précision les sorties de systèmes dynamiques linéaires et non linéaires, rivalisant ainsi avec des méthodes de filtrage bayésien classiques comme le filtre de Kalman, sans nécessiter de mises à jour de gradient ni de connaissance explicite du modèle.

Usman Akram, Haris Vikalo2026-03-10🤖 cs.LG