Cost-Driven Representation Learning for Linear Quadratic Gaussian Control: Part I

Este artigo estabelece garantias de amostragem finita para um método de aprendizado de representação de estado orientado a custos que, ao prever custos multietapa sem modelar observações ou ações, permite encontrar controladores e representações latentes quase ótimos para problemas de controle Linear Quadrático Gaussiano (LQG) de horizonte finito.

Yi Tian, Kaiqing Zhang, Russ Tedrake, Suvrit SraTue, 10 Ma🤖 cs.LG

Nuisance Function Tuning and Sample Splitting for Optimally Estimating a Doubly Robust Functional

Este artigo demonstra que, ao combinar estrategicamente o particionamento da amostra com o ajuste de parâmetros de suavização (sub ou super-suavização) para as funções de incômodo, é possível que estimadores de plug-in e de correção de viés de primeira ordem atinjam taxas de convergência minimax ótimas para funcionais duplamente robustos em todas as classes de suavidade de Hölder, superando limitações da literatura existente.

Sean McGrath, Rajarshi MukherjeeTue, 10 Ma🔢 math

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

Este artigo estabelece as fundações estatísticas do estimador de máxima verossimilhança parcial em mini-lotes (mb-MPLE) para redes neurais de Cox, demonstrando sua consistência e eficiência assintótica, enquanto oferece orientações práticas para o ajuste de hiperparâmetros e a convergência do gradiente descendente estocástico em aplicações de larga escala.

Lang Zeng, Weijing Tang, Zhao Ren, Ying DingTue, 10 Ma🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Este artigo propõe um método de Amostragem de Importância Annealed (AIS) combinado com reparametrização eficiente para otimizar o aprendizado variacional de Modelos de Variáveis Latentes de Processo Gaussiano (GPLVMs), superando as limitações de abordagens anteriores em espaços de alta dimensão e alcançando melhores limites variacionais e convergência em diversos conjuntos de dados.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John PaisleyTue, 10 Ma🤖 cs.LG

BNEM: A Boltzmann Sampler Based on Bootstrapped Noised Energy Matching

Este artigo apresenta o BNEM, um amostrador baseado em Boltzmann que utiliza a técnica de correspondência de energia com ruído (NEM) combinada com um método de bootstrap para gerar amostras independentes e identicamente distribuídas a partir de funções de energia, alcançando desempenho superior e maior robustez em comparação com trabalhos anteriores.

RuiKang OuYang, Bo Qiang, José Miguel Hernández-LobatoTue, 10 Ma🤖 cs.LG

Adaptive Replication Strategies in Trust-Region-Based Bayesian Optimization of Stochastic Functions

Este artigo apresenta um método de otimização Bayesiana baseado em regiões de confiança que utiliza replicação adaptativa e funções de aquisição modificadas para lidar eficazmente com funções estocásticas de alta variância, demonstrando ganhos significativos em precisão e eficiência computacional em comparação com métodos de base.

Mickael Binois (ACUMES), Jeffrey Larson (ANL)Tue, 10 Ma🔢 math

Fast reconstruction of degenerate populations of conductance-based neuron models from spike times

Este artigo apresenta um método que combina aprendizado profundo e Condutâncias de Entrada Dinâmicas (DICs) para reconstruir rapidamente populações degeneradas de modelos neuronais baseados em condutância a partir de tempos de disparo, permitindo a inferência eficiente de parâmetros biofísicos e a exploração da variabilidade de condutâncias que garantem a computação neuronal confiável.

Julien Brandoit, Damien Ernst, Guillaume Drion, Arthur FyonTue, 10 Ma🤖 cs.LG

Overlap-Adaptive Regularization for Conditional Average Treatment Effect Estimation

Este trabalho apresenta a Regularização Adaptativa à Sobreposição (OAR), uma nova abordagem que melhora a estimativa do Efeito Médio de Tratamento Condicional (CATE) em regiões de baixa sobreposição ao regularizar os modelos-alvo proporcionalmente aos pesos de sobreposição, sendo compatível com qualquer meta-aprendiz existente e oferecendo versões viesadas para inferência robusta.

Valentyn Melnychuk, Dennis Frauen, Jonas Schweisthal, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Este artigo apresenta o DRQ-learner, um novo meta-aprendizado que prevê resultados individuais em processos de decisão de Markov com dados observacionais, oferecendo garantias teóricas robustas como dupla robustez, ortogonalidade de Neyman e eficiência quasi-órcula, enquanto supera os métodos existentes em experimentos numéricos.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG