Adaptive and Stratified Subsampling for High-Dimensional Robust Estimation

Este artículo presenta dos estimadores de submuestreo, Muestreo de Importancia Adaptativo (AIS) y Submuestreo Estratificado (SS), que logran tasas óptimas minimax para la regresión robusta de alta dimensión bajo ruido de cola pesada, contaminación y dependencia temporal, cerrando la brecha entre teoría y algoritmo mediante un marco teórico riguroso y validación empírica superior.

Prateek Mittal, Joohi ChauhanWed, 11 Ma🤖 cs.LG

Improving Cramér-Rao Bound And Its Variants: An Extrinsic Geometry Perspective

Este trabajo presenta un refinamiento geométrico del límite de Cramér-Rao en el régimen no asintótico que, al incorporar correcciones basadas en la curvatura de la variedad estadística mediante su incrustación en un espacio de Hilbert, permite mejorar rigurosamente este límite y sus variantes utilizando herramientas como la fórmula de Faà di Bruno y los polinomios de Bell exponenciales.

Sunder Ram KrishnanWed, 11 Ma📊 stat

Refining Cramér-Rao Bound With Multivariate Parameters: An Extrinsic Geometry Perspective

Este artículo presenta una generalización vectorial de la cota de Cramér-Rao corregida por curvatura en el régimen no asintótico, utilizando una perspectiva de geometría extrínseca y relajaciones de suma de cuadrados para establecer límites de estimación más precisos y geométricamente consistentes que superan las predicciones de varianza excesivamente optimistas de los métodos clásicos en modelos estadísticos curvos.

Sunder Ram KrishnanWed, 11 Ma📊 stat

Robust Assortment Optimization from Observational Data

Este trabajo propone un marco robusto para la optimización de surtidos basado en datos observacionales que maximiza los ingresos esperados en el peor de los casos ante cambios en las preferencias de los clientes, estableciendo garantías teóricas sobre la complejidad de la muestra y definiendo la "cobertura robusta por artículo" como el requisito mínimo de datos para un aprendizaje eficiente.

Miao Lu, Yuxuan Han, Han Zhong, Zhengyuan Zhou, Jose BlanchetWed, 11 Ma🤖 cs.LG

Multidimensional Dickman distribution and operator selfdecomposability

Este artículo extiende la definición de la distribución de Dickman a elementos aleatorios vectoriales, caracterizándolos como puntos fijos de una transformación afín específica y demostrando que poseen propiedades de divisibilidad infinita y auto-decomponibilidad operatoria, además de identificar casos en los que surgen como distribuciones límite.

Anastasiia S. Kovtun, Nikolai N. Leonenko, Andrey PepelyshevWed, 11 Ma📊 stat

Kernel Debiased Plug-in Estimation based on the Universal Least Favorable Submodel

El artículo presenta ULFS-KDPE, un estimador de plug-in sesgado basado en un modelo desfavorable universal dentro de un espacio de Hilbert de núcleo reproductor (RKHS), que permite estimar parámetros diferenciables en modelos no paramétricos alcanzando la eficiencia semiparamétrica sin necesidad de derivar ni evaluar explícitamente las funciones de influencia eficiente.

Haiyi Chen, Yang Liu, Ivana MalenicaWed, 11 Ma🤖 cs.LG

Sequential learning theory for Markov genealogy processes

Este artículo introduce un marco basado en filtraciones para la inferencia filodinámica secuencial que descompone la reducción de varianza al añadir taxones en componentes de aprendizaje, discrepancia y covarianza, demostrando que existe una brecha fundamental e irreducible entre un oráculo que conoce el estado de absorción latente y el analista, lo que establece un límite teórico sobre lo que los datos de secuencia pueden revelar por sí solos.

David J PascallWed, 11 Ma🧬 q-bio

Second order asymptotics for the number of times an estimator is more than epsilon from its target value

Este artículo investiga las segundas órdenes de asintótica para la diferencia en el número de veces que estimadores consistentes se desvían más de un umbral ε\varepsilon de su valor objetivo, introduciendo una noción de "deficiencia relativa asintótica" para distinguir entre estimadores con eficiencias relativas idénticas y demostrando que, por ejemplo, el uso de n1/3n-1/3 en la estimación de la varianza normal es óptimo bajo este criterio.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Uniform Lorden-type bounds for overshoot moments for standard exponential families: small drift and an exponential correction

Este artículo establece cotas uniformes de tipo Lorden para los momentos del exceso de una caminata aleatoria con incrementos de una familia exponencial estandarizada en el régimen de deriva pequeña, demostrando que la constante clásica mejora a 1 con un término de error que decae exponencialmente y proporcionando una interpretación en términos de transporte óptimo.

El'mira Yu. Kalimulina, Mark Ya. KelbertWed, 11 Ma📊 stat

On the last time and the number of times an estimator is more than epsilon from its target value

Este artículo establece las distribuciones límite de la última ocurrencia y el número total de veces que un estimador fuertemente consistente se desvía más de ε\varepsilon de su valor objetivo, proporcionando resultados teóricos generales para comparar estimadores, definir nuevas propiedades de optimalidad para la máxima verosimilitud y construir intervalos de confianza secuenciales en contextos paramétricos y no paramétricos, tanto i.i.d. como no i.i.d.

Nils Lid Hjort, Grete FenstadWed, 11 Ma📊 stat

Nuisance Function Tuning and Sample Splitting for Optimally Estimating a Doubly Robust Functional

Este artículo demuestra que es posible alcanzar tasas de convergencia minimax para funcionales doblemente robustos en todas las clases de suavidad de Hölder mediante la combinación estratégica de técnicas de división de muestras y ajustes de los parámetros de suavizado de las funciones de nuisance, superando así las limitaciones de la literatura existente.

Sean McGrath, Rajarshi MukherjeeTue, 10 Ma🔢 math