Learning under Distributional Drift: Prequential Reproducibility as an Intrinsic Statistical Resource

Este artículo introduce un presupuesto de deriva intrínseco basado en la distancia de Fisher-Rao para cuantificar el movimiento geométrico de la distribución de datos en entornos de aprendizaje en bucle cerrado, demostrando que la reproducibilidad prequencial está acotada por una tasa que combina la incertidumbre estadística estándar y la velocidad de deriva acumulada, estableciendo así un límite fundamental de precisión cuando la deriva inducida por el aprendizaje es significativa.

Sofiya Zaichyk2026-03-05🤖 cs.LG

Surprisal-Rényi Free Energy

Este trabajo introduce la Energía Libre de Sorpresa-Rényi (SRFE), un funcional log-momentual que recupera las divergencias KL directa e inversa como límites singulares, revelando un compromiso explícito entre media y varianza, estableciendo una caracterización variacional de tipo Gibbs y proporcionando una interpretación precisa de la Longitud Mínima de Descripción mediante el control de desviaciones grandes en la longitud de código.

Shion Matsumoto, Raul Castillo, Benjamin Prada + 1 more2026-03-05🤖 cs.LG

Minimax Optimal Strategy for Delayed Observations in Online Reinforcement Learning

Los autores proponen un algoritmo óptimo para el aprendizaje por refuerzo con observaciones de estado retrasadas que combina el método de aumento y la cota superior de confianza, logrando un límite de arrepentimiento minimax de O~(HDmaxSAK)\tilde{\mathcal{O}}(H \sqrt{D_{\max} SAK}) y estableciendo un límite inferior coincidente que demuestra la optimalidad del enfoque.

Harin Lee, Kevin Jamieson2026-03-05🤖 cs.LG

Solving adversarial examples requires solving exponential misalignment

El artículo demuestra que la vulnerabilidad a ejemplos adversarios surge de una desalineación exponencial entre las variedades perceptuales de las máquinas y las humanas, donde la dimensión excesivamente alta de los conceptos de las redes neuronales crea un espacio de entrada donde cualquier perturbación imperceptible puede fácilmente cruzar hacia otra clase, lo que implica que la robustez requiere alinear estas dimensiones.

Alessandro Salvatore, Stanislav Fort, Surya Ganguli2026-03-05🤖 cs.LG

Extending Neural Operators: Robust Handling of Functions Beyond the Training Set

Este trabajo presenta un marco riguroso que extiende los operadores neuronales para manejar funciones fuera de la distribución mediante aproximaciones de kernels y espacios de Hilbert de núcleo reproductor, permitiendo la captura precisa de valores y derivadas, lo cual se valida empíricamente en la resolución de ecuaciones diferenciales parciales elípticas en variedades.

Blaine Quackenbush, Paul J. Atzberger2026-03-05🤖 cs.LG

Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data

Este trabajo establece límites de error finitos para modelos de difusión basados en puntuación que demuestran que estos modelos se adaptan a la geometría intrínseca de los datos de baja dimensión, mitigando la maldición de la dimensionalidad mediante tasas de convergencia que dependen de la dimensión de Wasserstein (p,q)(p,q) en lugar de la dimensión ambiental, sin requerir suposiciones restrictivas de soporte compacto o densidad suave.

Saptarshi Chakraborty, Quentin Berthet, Peter L. Bartlett2026-03-05🤖 cs.AI

Inverse Contextual Bandits without Rewards: Learning from a Non-Stationary Learner via Suffix Imitation

Este trabajo propone el marco "Two-Phase Suffix Imitation" para resolver el problema de los Contextual Bandits Inversos sin recompensas, demostrando que un observador pasivo puede recuperar la política óptima con una tasa de convergencia de O~(1/N)\tilde O(1/\sqrt{N}) al ignorar la fase inicial de exploración y aprender únicamente de los datos de imitación de un agente no estacionario.

Yuqi Kong, Xiao Zhang, Weiran Shen2026-03-05🤖 cs.LG