LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks

Het artikel introduceert LoRA-Ensemble, een parameter-efficiënte methode voor zelfattentie-netwerken die via Low-Rank Adaptatie een impliciete ensemble vormt die niet alleen de nauwkeurigheid van expliciete ensembles evenaart of overtreft, maar ook superieure kalibratie biedt.

Dominik J. Mühlematter, Michelle Halbheer, Alexander Becker, Dominik Narnhofer, Helge Aasen, Konrad Schindler, Mehmet Ozgur Turkoglu2026-03-10🤖 cs.LG

Exploring Diffusion Models' Corruption Stage in Few-Shot Fine-tuning and Mitigating with Bayesian Neural Networks

Dit paper identificeert en analyseert een 'corruptiestadium' tijdens het few-shot fine-tunen van diffusiemodellen, waarbij beeldkwaliteit tijdelijk verslechtert door een versmalde leerverdeling, en lost dit op door Bayesiaanse neurale netwerken toe te passen om de distributie te verbreden en zo de beeldkwaliteit, diversiteit en trouw te verbeteren zonder extra inferentiekosten.

Xiaoyu Wu, Jiaru Zhang, Yang Hua, Bohan Lyu, Hao Wang, Tao Song, Haibing Guan2026-03-10🤖 cs.LG

Estimating Treatment Effects under Algorithmic Interference: A Structured Neural Networks Approach

Dit artikel introduceert een gestructureerd semiparametrisch raamwerk dat dubbel machine learning combineert met modellen voor algoritmekeuze en kijkersrespons om de vertekende schattingen van behandelingseffecten door algoritmische interferentie in tweezijdige markten te corrigeren en zo nauwkeurige globale effecten voor platformrollouts te kunnen bepalen.

Ruohan Zhan, Shichao Han, Yuchen Hu, Zhenling Jiang2026-03-10🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Deze paper introduceert een efficiënt variational learning-algoritme voor Gaussian Process Latent Variable Models dat Annealed Importance Sampling combineert met reparameterisatie om de beperkingen van bestaande methoden in complexe, hoogdimensionale ruimtes te overwinnen en superieure prestaties te leveren.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

Deze studie waarschuwt dat post-hoc uitlegmiddelen zoals SHAP en LIME, hoewel veel gebruikt in bedrijfsresearch, onbetrouwbaar zijn voor het valideren van hypothesen over onderliggende data-relaties vanwege hun gevoeligheid voor correlaties en het Rashomon-effect, en pleit ervoor ze uitsluitend te gebruiken als verkennende hulpmiddelen.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu2026-03-10🤖 cs.LG

Reconsidering the energy efficiency of spiking neural networks

Deze paper weerlegt de vaak te optimistische aannames over de energie-efficiëntie van spiking neural networks door een rigoureuze vergelijking met kwantiseerde neurale netwerken te maken en aantoont dat SNNs alleen onder specifieke voorwaarden, zoals een lage spierate, daadwerkelijk energiebesparend zijn, wat kan leiden tot een verdubbeling van de batterijduur van apparaten zoals smartwatches.

Zhanglu Yan, Zhenyu Bai, Weng-Fai Wong2026-03-10🤖 cs.LG

Landscape of Policy Optimization for Finite Horizon MDPs with General State and Action

Dit artikel bewijst dat beleidsgradiëntmethoden, ondanks de niet-convexe aard van de optimalisatie, met een niet-asymptotische snelheid convergeren naar een globaal optimaal beleid voor eind-horizon MDP's met algemene toestanden en acties door gebruik te maken van de Polyak-Łojasiewicz-Kurdyka (PLK)-voorwaarde, wat leidt tot nieuwe sample-complexiteit garanties voor diverse operationele modellen zoals voorraad- en kasbalanssystemen.

Xin Chen, Yifan Hu, Minda Zhao2026-03-10🤖 cs.LG