Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Deze paper introduceert een efficiënt variational learning-algoritme voor Gaussian Process Latent Variable Models dat Annealed Importance Sampling combineert met reparameterisatie om de beperkingen van bestaande methoden in complexe, hoogdimensionale ruimtes te overwinnen en superieure prestaties te leveren.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John PaisleyTue, 10 Ma🤖 cs.LG

Faster Gradient Methods for Highly-Smooth Stochastic Bilevel Optimization

Dit artikel introduceert de F²SA-pp-methode, die hogere-orde einddifferenties gebruikt om de complexiteit van stochastische bilevel-optimalisatie te verbeteren tot O~(pϵ4p/2)\tilde{\mathcal{O}}(p \epsilon^{-4-p/2}) voor sterk gladde problemen, waardoor de snelheid dichter bij de ondergrens van Ω(ϵ4)\Omega(\epsilon^{-4}) komt.

Lesi Chen, Junru Li, El Mahdi Chayti, Jingzhao ZhangTue, 10 Ma🤖 cs.LG

Fast reconstruction of degenerate populations of conductance-based neuron models from spike times

Dit artikel introduceert een snelle, op deep learning gebaseerde methode die spike-tijden gebruikt om via Dynamic Input Conductances (DICs) diverse, degeneratieve populaties van conductantie-gebaseerde neuronmodellen te reconstrueren, waardoor de link tussen experimentele waarnemingen en mechanistische modellen wordt versterkt.

Julien Brandoit, Damien Ernst, Guillaume Drion, Arthur FyonTue, 10 Ma🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Dit paper introduceert de DRQ-learner, een nieuw meta-leraar voor het schatten van individuele potentiële uitkomsten in Markov-beslissingsprocessen met observationele data, die dubbel robuust, Neyman-orthogonaal en quasi-orakel-efficiënt is en hiermee de prestaties van bestaande methoden verbetert.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG