On-Average Stability of Multipass Preconditioned SGD and Effective Dimension

Este artículo establece un marco de estabilidad algorítmica promedio para el descenso de gradiente estocástico precondicionado multipaso, demostrando cómo la elección del precondicionador afecta la dimensión efectiva y el riesgo de generalización, y proporcionando límites superiores e inferiores coincidentes que vinculan la curvatura del riesgo poblacional con la geometría del ruido.

Simon Vary, Tyler Farghly, Ilja Kuzborskij, Patrick RebeschiniFri, 13 Ma📊 stat

BTZSC: A Benchmark for Zero-Shot Text Classification Across Cross-Encoders, Embedding Models, Rerankers and LLMs

Este artículo presenta BTZSC, un benchmark integral de 22 conjuntos de datos que evalúa y compara sistemáticamente el rendimiento de cuatro familias de modelos (codificadores cruzados, modelos de incrustación, rerankers y LLMs) en clasificación de texto zero-shot, revelando que los rerankers modernos establecen un nuevo estado del arte mientras que los modelos de incrustación ofrecen el mejor equilibrio entre precisión y latencia.

Ilias AarabFri, 13 Ma💬 cs.CL

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Este artículo demuestra matemáticamente y mediante experimentos numéricos que las redes de reacciones químicas sin capas ocultas pueden aprender tareas de clasificación más eficiente y con mayor precisión que las redes neuronales de spiking que requieren capas ocultas, ofreciendo una explicación teórica sobre la posible superioridad del aprendizaje en redes bioquímicas celulares frente a las neuronales.

Sophie Jaffard, Ivo F. SbalzariniFri, 13 Ma📊 stat

A Quantitative Characterization of Forgetting in Post-Training

Este trabajo proporciona una caracterización cuantitativa del olvido en el entrenamiento continuo de modelos generativos, demostrando teóricamente que los objetivos de divergencia KL inversa evitan el colapso de la masa de tareas anteriores y limitan el desplazamiento de componentes mediante la superposición de distribuciones, a diferencia de la KL directa que conduce al olvido masivo.

Krishnakumar Balasubramanian, Shiva Prasad KasiviswanathanFri, 13 Ma📊 stat

Logarithmic Regret for Online KL-Regularized Reinforcement Learning

Este trabajo propone un algoritmo de aprendizaje por refuerzo en línea basado en el optimismo para contextos de banda contextual y RL regularizados por KL, demostrando teóricamente que explora el paisaje de optimización benigno de la regularización para lograr un límite de arrepentimiento logarítmico, superando así las limitaciones de análisis previos que dependían de supuestos de cobertura fuertes o se reducían al escenario de RL tradicional.

Heyang Zhao, Chenlu Ye, Wei Xiong + 2 more2026-03-12📊 stat

Geopolitics, Geoeconomics, and Sovereign Risk: Different Shocks, Different Channels

El artículo demuestra que los choques geopolíticos y geoeconómicos afectan de manera distinta al riesgo soberano, operando a través de canales opuestos (un patrón de tijeras) donde los primeros impactan directamente el riesgo de incumplimiento y los segundos se transmiten mediante la política monetaria y el ciclo financiero global, lo que implica que la provisión de liquidez puede mitigar el segundo tipo de riesgo pero no el componente persistente de las primas de riesgo geopolítico.

Alvaro Ortiz, Tomasa Rodrigo, Pablo Saborido2026-03-12📊 stat

A Bandit-Based Approach to Educational Recommender Systems: Contextual Thompson Sampling for Learner Skill Gain Optimization

Este artículo presenta un enfoque basado en muestreo Thompson contextual para generar secuencias de ejercicios personalizados que optimizan la mejora de habilidades en entornos educativos digitales, demostrando mediante datos de una plataforma de tutoría matemática que este método incrementa el aprendizaje y permite una instrucción adaptativa a escala.

Lukas De Kerpel, Arthur Thuy, Dries F. Benoit2026-03-12📊 stat

Accounting for shared covariates in semi-parametric Bayesian additive regression trees

Los autores proponen una extensión de los modelos semi-paramétricos basados en árboles de regresión bayesianos aditivos (BART) que permite compartir covariables entre los componentes paramétrico y no paramétrico mediante la modificación de las operaciones de generación de árboles, lo que resuelve problemas de no identificabilidad y sesgo mientras mejora la interpretación de efectos principales e interacciones complejas.

Estevão B. Prado, Andrew C. Parnell, Keefe Murphy + 3 more2026-03-10🤖 cs.LG

Convergence and complexity of block majorization-minimization for constrained block-Riemannian optimization

Este artículo presenta un algoritmo de minimización de bloque mediante mayorización para optimización no convexa con restricciones en variedades de Riemann, demostrando su convergencia a puntos estacionarios con una complejidad de O~(ϵ2)\widetilde{O}(\epsilon^{-2}) y validando experimentalmente su superioridad frente a métodos euclidianos estándar.

Yuchen Li, Laura Balzano, Deanna Needell + 1 more2026-03-10📊 stat

Zeroth-Order primal-dual Alternating Projection Gradient Algorithms for Nonconvex Minimax Problems with Coupled linear Constraints

Este artículo propone dos algoritmos de un solo bucle de orden cero, ZO-PDAPG y ZO-RMPDPG, que garantizan la convergencia a puntos estacionarios para problemas minimax no convexos con restricciones lineales acopladas en entornos deterministas y estocásticos, estableciendo nuevos estándares de complejidad iterativa y superando a los métodos existentes.

Huiling Zhang, Zi Xu, Yuhong Dai2026-03-06🔢 math

Towards a Fairer Non-negative Matrix Factorization

Este artículo propone un enfoque de factorización de matrices no negativas (NMF) con una formulación min-max para mejorar la equidad en la descomposición de datos, presentando algoritmos de optimización y demostrando mediante experimentos que, si bien puede reducir el sesgo entre grupos, a menudo implica un compromiso con el error individual y requiere una adaptación cuidadosa al contexto de aplicación.

Lara Kassab, Erin George, Deanna Needell + 3 more2026-03-06💻 cs

Generalization Bounds for Markov Algorithms through Entropy Flow Computations

Este trabajo extiende el método de flujo de entropía para derivar cotas de generalización válidas para cualquier algoritmo de aprendizaje gobernado por un proceso de Markov homogéneo en el tiempo, estableciendo nuevas conexiones con desigualdades de Sobolev logarítmicas modificadas y demostrando su eficacia en diversos algoritmos concretos.

Benjamin Dupuis, Maxime Haddouche, George Deligiannidis + 1 more2026-03-06💻 cs