Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Cet article propose une méthode d'échantillonnage par importance recuit (AIS) couplée à une reparamétrisation efficace pour surmonter les limitations des modèles latents à processus gaussiens (GPLVM) dans les espaces de grande dimension, permettant ainsi d'obtenir des bornes variationnelles plus serrées et une convergence plus robuste que les méthodes actuelles.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

Reconsidering the energy efficiency of spiking neural networks

Cet article propose une réévaluation rigoureuse de l'efficacité énergétique des réseaux de neurones à impulsions (SNN) en comparant des modèles équivalents à des réseaux de neurones quantifiés (QNN) via un modèle analytique complet, révélant ainsi les conditions spécifiques où les SNN surpassent réellement les QNN et peuvent doubler l'autonomie des appareils portables.

Zhanglu Yan, Zhenyu Bai, Weng-Fai Wong2026-03-10🤖 cs.LG

Neural delay differential equations: learning non-Markovian closures for partially known dynamical systems

Cet article propose un cadre d'équations différentielles à retard neuronal (NDDE) inspiré du formalisme de Mori-Zwanzig pour apprendre efficacement des dynamiques non markoviennes à partir de systèmes partiellement observables, surpassant ainsi les méthodes existantes comme les réseaux LSTM et les ANODEs.

Thibault Monsel, Onofrio Semeraro, Lionel Mathelin, Guillaume Charpiat2026-03-10🤖 cs.LG

The Illusion of Collusion

Cette étude démontre que des agents algorithmiques apprenant sans modèle préalable peuvent développer une « collusion naïve » dans des jeux répétés, un phénomène dont l'émergence dépend crucialement de la synchronisation des actions et du type de politique d'apprentissage utilisée, allant de l'absence totale de collusion avec des algorithmes persistamment aléatoires à une collusion systématique avec des algorithmes déterministes comme UCB.

Connor Douglas, Foster Provost, Arun Sundararajan2026-03-10💻 cs

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Cet article propose une méthode permettant d'apprendre des modèles du monde symboliques abstraits à partir de démonstrations visuelles et de modèles vision-langage préentraînés, afin de résoudre par planification des tâches de prise de décision à long horizon dans des environnements robotiques complexes avec une généralisation zéro-shot.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

A Single Model Ensemble Framework for Neural Machine Translation using Pivot Translation

Cet article présente un cadre d'ensemble utilisant un seul modèle pour la traduction automatique neuronale, qui améliore la qualité des traductions, notamment pour les paires de langues à ressources limitées, en générant des candidats via une traduction pivot et en les fusionnant postérieurement pour capturer les nuances subtiles de la phrase source.

Seokjin Oh, Keonwoong Noh, Woohwan Jung2026-03-10💬 cs.CL

An Efficient Local Search Approach for Polarized Community Discovery in Signed Networks

Cet article propose une nouvelle approche de recherche locale efficace pour découvrir des communautés polarisées dans des réseaux signés, en résolvant le problème du déséquilibre de taille des communautés et en permettant l'existence de nœuds neutres, tout en garantissant une convergence linéaire et des performances supérieures aux méthodes existantes.

Linus Aronsson, Morteza Haghir Chehreghani2026-03-10🤖 cs.LG

Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs

Cette étude démontre que l'utilisation de l'adaptation à faible rang (LoRA) dans l'apprentissage fédéré pour les grands modèles de langage réduit considérablement la mémorisation des données d'entraînement, limitant ainsi les risques de fuite d'informations privées sans compromettre les performances du modèle.

Thierry Bossy, Julien Vignoud, Tahseen Rabbani, Juan R. Troncoso Pastoriza, Martin Jaggi2026-03-10🤖 cs.LG

Prompt-SID: Learning Structural Representation Prompt via Latent Diffusion for Single-Image Denoising

Le papier présente Prompt-SID, un cadre d'apprentissage auto-supervisé pour le débruitage d'images uniques qui préserve les détails structurels grâce à un modèle de génération de représentations basé sur la diffusion latente et un mécanisme de réjouissance d'échelle, surpassant les méthodes existantes sur divers jeux de données synthétiques et réels.

Huaqiu Li, Wang Zhang, Xiaowan Hu, Tao Jiang, Zikang Chen, Haoqian Wang2026-03-10💻 cs