Nuisance Function Tuning and Sample Splitting for Optimally Estimating a Doubly Robust Functional

Questo studio dimostra come la combinazione strategica di tecniche di divisione del campione e di sintonizzazione degli stimatori delle funzioni di disturbo permetta di ottenere tassi di convergenza minimassimali ottimali per funzionali doppiamente robusti, superando le limitazioni delle stime plug-in e di correzione del bias di primo ordine in condizioni di regolarità ridotta.

Sean McGrath, Rajarshi MukherjeeTue, 10 Ma🔢 math

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

Questo lavoro stabilisce le basi statistiche e fornisce indicazioni pratiche per l'uso della discesa del gradiente stocastica nei modelli di Cox profondi, dimostrando che l'estimatore di massima verosimiglianza parziale su mini-batch è consistente, asintoticamente normale e particolarmente efficace per applicazioni su larga scala dove i metodi tradizionali risultano intrattabili.

Lang Zeng, Weijing Tang, Zhao Ren, Ying DingTue, 10 Ma🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Questo lavoro propone un metodo di apprendimento variazionale per i Modelli a Variabili Latenti con Processi Gaussiani che utilizza il campionamento per importanza annealato stocastico per superare le limitazioni degli approcci esistenti in spazi ad alta dimensionalità, ottenendo legami variazionali più stretti e una convergenza più robusta.

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John PaisleyTue, 10 Ma🤖 cs.LG

Online Decision-Focused Learning

Il paper propone due nuovi algoritmi online per l'apprendimento decisionale focalizzato (DFL) in ambienti dinamici, che superano le sfide della non differenziabilità e non convessità attraverso regolarizzazione e tecniche di perturbazione, garantendo per la prima volta limiti di rimedio statici e dinamici e dimostrando prestazioni superiori in esperimenti pratici.

Aymeric Capitaine, Maxime Haddouche, Eric Moulines, Michael I. Jordan, Etienne Boursier, Alain DurmusTue, 10 Ma🤖 cs.LG

Synthetic data for ratemaking: imputation-based methods vs adversarial networks and autoencoders

Questo studio dimostra che i metodi di imputazione basati su MICE offrono un'alternativa efficace e più semplice da implementare rispetto alle reti avversarie e agli autoencoder per la generazione di dati sintetici nella taratura assicurativa, preservando fedelmente le distribuzioni originali e migliorando le prestazioni dei modelli GLM.

Yevhen Havrylenko, Meelis Käärik, Artur TuttarTue, 10 Ma🤖 cs.LG

Faster Gradient Methods for Highly-Smooth Stochastic Bilevel Optimization

Questo articolo propone la classe di metodi F²SA-p, che utilizza differenze finite di ordine p per approssimare il gradiente iperbolico nell'ottimizzazione bilevel stocastica, migliorando il limite superiore di complessità fino a O~(pϵ4p/2)\tilde{\mathcal{O}}(p \epsilon^{-4-p/2}) per problemi altamente lisci e dimostrando la quasi-ottimalità di tale approccio rispetto al limite inferiore Ω(ϵ4)\Omega(\epsilon^{-4}).

Lesi Chen, Junru Li, El Mahdi Chayti, Jingzhao ZhangTue, 10 Ma🤖 cs.LG

Fast reconstruction of degenerate populations of conductance-based neuron models from spike times

Questo lavoro presenta un metodo che combina deep learning e le conduttanze di ingresso dinamiche (DIC) per ricostruire rapidamente e in modo scalabile popolazioni degeneri di modelli neuronali basati su conduttanze partendo esclusivamente dai tempi di picco, superando la sfida di inferire parametri biofisici da dati sperimentali limitati.

Julien Brandoit, Damien Ernst, Guillaume Drion, Arthur FyonTue, 10 Ma🤖 cs.LG

Overlap-Adaptive Regularization for Conditional Average Treatment Effect Estimation

Questo lavoro introduce l'Overlap-Adaptive Regularization (OAR), un nuovo approccio che migliora la stima dell'effetto medio del trattamento condizionale (CATE) nelle regioni a bassa sovrapposizione regolando i modelli meta-learner in modo proporzionale ai pesi di sovrapposizione, garantendo al contempo inferenze robuste attraverso versioni debiased.

Valentyn Melnychuk, Dennis Frauen, Jonas Schweisthal, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Questo articolo presenta il DRQ-learner, un nuovo meta-apprenditore per la previsione di esiti individualizzati nei processi decisionali di Markov che, grazie a proprietà di robustezza doppia, ortogonalità di Neyman ed efficienza quasi-oracolo, supera i metodi esistenti sia in termini teorici che empirici.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan FeuerriegelTue, 10 Ma🤖 cs.LG