Data-driven robust Markov decision processes on Borel spaces: performance guarantees via an axiomatic approach

El artículo presenta un enfoque axiomático para procesos de decisión de Markov robustos en espacios de Borel que, mediante conjuntos de ambigüedad basados en distancias empíricas, garantiza la convergencia y ofrece cotas de rendimiento fuera de muestra con alta probabilidad para tamaños de muestra finitos, superando así las limitaciones de los MDPs empíricos tradicionales.

Sivaramakrishnan RamaniWed, 11 Ma🤖 cs.LG

Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

Este artículo verifica que los observadores persistentes en sustratos de hipergrafos causalmente invariantes satisfacen el Teorema del Buen Regulador de Conant-Ashby, demostrando que el descenso de gradiente natural es su regla de aprendizaje única y derivando un umbral cuántico-clásico específico para el parámetro de régimen en el marco de Vanchurin, aunque esta predicción depende fuertemente del modelo de convergencia elegido.

Max ZhuravlevWed, 11 Ma🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Este trabajo establece nuevos límites de generalización transductiva basados en transporte óptimo para la clasificación de nodos en grafos, demostrando que son computacionalmente eficientes, se correlacionan fuertemente con el rendimiento empírico y revelan cómo la profundidad de las GNN afecta la generalización mediante un equilibrio entre la concentración intraclase y la separación interclase.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo KimWed, 11 Ma🤖 cs.LG

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Este artículo establece nuevos límites de arrepentimiento para el muestreo de Thompson con procesos gaussianos (GP-TS), incluyendo una cota inferior, una cota superior para el segundo momento del arrepentimiento acumulado, límites de arrepentimiento "leniente" esperados y una cota superior mejorada para el horizonte temporal, cerrando así brechas analíticas existentes frente al método GP-UCB.

Shion Takeno, Shogo IwazakiWed, 11 Ma🤖 cs.LG

A Gaussian Comparison Theorem for Training Dynamics in Machine Learning

Este artículo presenta un teorema de comparación no asintótico basado en el teorema de Gordon para analizar la dinámica de entrenamiento de algoritmos de aprendizaje automático bajo modelos de mezcla gaussiana, demostrando la validez de las expresiones de campo medio dinámico en escenarios asintóticos y proponiendo un esquema de refinamiento iterativo para mejorar la precisión en dominios no asintóticos.

Ashkan PanahiWed, 11 Ma🤖 cs.LG

Robust Regularized Policy Iteration under Transition Uncertainty

Este artículo presenta la Iteración de Política Regularizada Robusta (RRPI), un enfoque de aprendizaje por refuerzo fuera de línea que aborda la incertidumbre en las transiciones mediante la optimización de políticas frente a dinámicas adversas dentro de un conjunto de incertidumbre, logrando mejoras teóricas y un rendimiento superior en benchmarks como D4RL al evitar acciones fuera de distribución.

Hongqiang Lin, Zhenghui Fu, Weihao Tang, Pengfei Wang, Yiding Sun, Qixian Huang, Dongxu ZhangWed, 11 Ma🤖 cs.AI

Variational Routing: A Scalable Bayesian Framework for Calibrated Mixture-of-Experts Transformers

El artículo presenta VMoER, un enfoque bayesiano escalable que integra la cuantificación de incertidumbre en las capas de Mezcla de Expertos (MoE) de los modelos fundacionales mediante la inferencia variacional en la etapa de enrutamiento, logrando una mejora significativa en la estabilidad, calibración y detección de datos fuera de distribución con un costo computacional marginal.

Albus Yizhuo Li, Matthew WickerWed, 11 Ma🤖 cs.AI

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Este artículo presenta un marco unificado para la factorización de matrices no negativas tradicional y convexa bajo modelos de Tweedie y Binomial Negativa, derivando reglas de actualización multiplicativa mediante algoritmos MM y demostrando mediante evaluaciones empíricas que la elección del modelo de ruido y el enfoque convexo mejoran significativamente el ajuste y la recuperación de características en datos complejos.

Elisabeth Sommer James, Asger Hobolth, Marta PelizzolaWed, 11 Ma🤖 cs.LG

Upper Generalization Bounds for Neural Oscillators

Este estudio establece límites superiores de generalización PAC para osciladores neuronales basados en ecuaciones diferenciales de segundo orden, demostrando teóricamente y validando numéricamente que sus errores de estimación crecen polinomialmente con el tamaño de la red y la duración temporal, y que regularizar las constantes de Lipschitz mejora su capacidad de generalización en sistemas estructurales no lineales.

Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael BeerWed, 11 Ma🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Este artículo presenta un marco jerárquico novedoso de aprendizaje multi-tarea y multi-fidelidad basado en procesos gaussianos que unifica la similitud entre tareas y las características de los datos de diferentes fidelidades para mejorar la precisión y la eficiencia en el modelado sustituto de sistemas de fabricación.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui ShaoWed, 11 Ma🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

Este artículo propone una nueva familia de optimizadores basados en normas de operadores normalizadas (como MOGA) que garantizan una estabilidad independiente del ancho de la red y permiten una transferencia efectiva de hiperparámetros, superando las limitaciones de métodos existentes como AdamW y Muon mediante una perspectiva geométrica de descenso de gradiente.

Ruihan Xu, Jiajin Li, Yiping LuWed, 11 Ma🤖 cs.LG