Nuisance Function Tuning and Sample Splitting for Optimally Estimating a Doubly Robust Functional

Este artículo demuestra que es posible alcanzar tasas de convergencia minimax para funcionales doblemente robustos en todas las clases de suavidad de Hölder mediante la combinación estratégica de técnicas de división de muestras y ajustes de los parámetros de suavizado de las funciones de nuisance, superando así las limitaciones de la literatura existente.

Sean McGrath, Rajarshi MukherjeeTue, 10 Ma🔢 math

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Este trabajo propone un enfoque de muestreo de importancia con recocido (AIS) combinado con aprendizaje variacional para mejorar la inferencia en Modelos de Variables Latentes de Procesos Gaussianos, logrando límites variacionales más ajustados y una convergencia más robusta en espacios de alta dimensión.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John PaisleyTue, 10 Ma🤖 cs.LG

Active Advantage-Aligned Online Reinforcement Learning with Offline Data

El artículo presenta A3RL, un nuevo método de aprendizaje por refuerzo que combina datos en línea y fuera de línea mediante una estrategia de muestreo activa y consciente de la confianza para mejorar la eficiencia de las muestras y superar el olvido catastrófico, logrando un rendimiento superior frente a técnicas existentes.

Xuefeng Liu, Hung T. C. Le, Siyu Chen, Rick Stevens, Zhuoran Yang, Matthew R. Walter, Yuxin ChenTue, 10 Ma🤖 cs.LG

Synthetic data for ratemaking: imputation-based methods vs adversarial networks and autoencoders

Este artículo demuestra que los métodos de imputación basados en MICE son una alternativa eficaz y más sencilla de implementar que las redes generativas adversarias y los autoencoders para generar datos sintéticos de alta fidelidad en la tarificación actuarial, preservando tanto las distribuciones marginales como las relaciones multivariadas necesarias para entrenar modelos GLM.

Yevhen Havrylenko, Meelis Käärik, Artur TuttarTue, 10 Ma🤖 cs.LG

Faster Gradient Methods for Highly-Smooth Stochastic Bilevel Optimization

Este artículo propone la clase de métodos F²SA-pp que utiliza diferencias finitas de orden pp para aproximar el hipergradiente en optimización bilevel estocástica, logrando una complejidad superior de O~(pϵ4p/2)\tilde{\mathcal{O}}(p \epsilon^{-4-p/2}) para problemas altamente suaves y demostrando que esta tasa es casi óptima al coincidir con el límite inferior Ω(ϵ4)\Omega(\epsilon^{-4}) en regiones de suavidad suficientemente alta.

Lesi Chen, Junru Li, El Mahdi Chayti, Jingzhao ZhangTue, 10 Ma🤖 cs.LG

Fast reconstruction of degenerate populations of conductance-based neuron models from spike times

Este trabajo presenta un método que combina aprendizaje profundo y conductancias de entrada dinámicas (DICs) para reconstruir rápidamente poblaciones degeneradas de modelos neuronales basados en conductancia a partir únicamente de tiempos de disparo, resolviendo así el desafío de inferir parámetros biofísicos a pesar de la variabilidad en las conductancias iónicas.

Julien Brandoit, Damien Ernst, Guillaume Drion, Arthur FyonTue, 10 Ma🤖 cs.LG

Overlap-Adaptive Regularization for Conditional Average Treatment Effect Estimation

Este trabajo introduce la Regularización Adaptativa al Solapamiento (OAR), un nuevo enfoque que mejora la estimación del efecto promedio condicional del tratamiento en regiones de bajo solapamiento al regularizar los modelos meta-learners proporcionalmente a los pesos de solapamiento, preservando además la ortogonalidad de Neyman para una inferencia más robusta.

Valentyn Melnychuk, Dennis Frauen, Jonas Schweisthal, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Este artículo presenta el DRQ-learner, un nuevo meta-aprendiz causal para la estimación de resultados potenciales individualizados en procesos de decisión de Markov que garantiza doble robustez, ortogonalidad de Neyman y eficiencia cuasi-oráculo, superando a los métodos existentes en diversos escenarios y modelos de aprendizaje automático.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG