Saddle-to-Saddle Dynamics Explains A Simplicity Bias Across Neural Network Architectures

Este artículo presenta un marco teórico unificado que explica el sesgo de simplicidad en diversas arquitecturas de redes neuronales como resultado de una dinámica de aprendizaje de tipo "silla a silla", donde el descenso de gradiente evoluciona iterativamente a través de variedades invariantes y puntos de silla, revelando cómo la distribución de los datos y la inicialización de los pesos determinan la progresión hacia soluciones de mayor complejidad.

Yedi Zhang, Andrew Saxe, Peter E. Latham2026-03-12🤖 cs.LG

The Bayesian Geometry of Transformer Attention

Este artículo demuestra que los transformadores pequeños, en entornos controlados denominados "túneles de viento bayesianos", realizan inferencia bayesiana con alta precisión mediante un mecanismo geométrico específico donde las corrientes residuales almacenan creencias y la atención gestiona el enrutamiento, superando así a las arquitecturas MLP y revelando la base geométrica del razonamiento en modelos grandes.

Naman Agarwal, Siddhartha R. Dalal, Vishal Misra2026-03-12📊 stat

Gradient Dynamics of Attention: How Cross-Entropy Sculpts Bayesian Manifolds

Este artículo demuestra que el entrenamiento por entropía cruzada en los transformadores genera dinámicas de gradiente acopladas que esculpen manifiestos bayesianos de baja dimensión, unificando así la optimización, la geometría interna y el razonamiento probabilístico en contexto mediante un mecanismo de enrutamiento basado en ventajas y actualizaciones de valores ponderadas por responsabilidad.

Naman Agarwal, Siddhartha R. Dalal, Vishal Misra2026-03-12📊 stat

Inferring Clinically Relevant Molecular Subtypes of Pancreatic Cancer from Routine Histopathology Using Deep Learning

El estudio presenta PanSubNet, un marco de aprendizaje profundo interpretable que predice los subtipos moleculares clínicamente relevantes del cáncer de páncreas directamente a partir de histopatología rutinaria (tinción H&E), superando las limitaciones de costo y tiempo de los métodos genómicos tradicionales y ofreciendo una herramienta viable para la estratificación pronóstica y la oncología de precisión.

Abdul Rehman Akbar, Alejandro Levya, Ashwini Esnakula, Elshad Hasanov, Anne Noonan, Lingbin Meng, Susan Tsai, Vaibhav Sahai, Midhun Malla, Sarbajit Mukherjee, Upender Manne, Anil Parwani, Wei Chen, Ashish Manne, Muhammad Khalid Khan Niazi2026-03-12⚡ eess

Over-Searching in Search-Augmented Large Language Models

Este trabajo analiza el problema del "sobre-búsqueda" en modelos de lenguaje grandes aumentados con búsqueda, proponiendo la métrica Tokens por Corrección (TPC) para cuantificar este fenómeno, identificando sus causas y efectos negativos, y presentando estrategias de mitigación junto con el conjunto de datos OverSearchQA para fomentar investigaciones futuras.

Roy Xie, Deepak Gopinath, David Qiu, Dong Lin, Haitian Sun, Saloni Potdar, Bhuwan Dhingra2026-03-12🤖 cs.LG

Sampling via Stochastic Interpolants by Langevin-based Velocity and Initialization Estimation in Flow ODEs

Este artículo propone un método innovador para muestrear distribuciones de Boltzmann no normalizadas mediante ecuaciones diferenciales ordinarias de flujo, utilizando una secuencia de muestreadores de Langevin para generar muestras intermedias y estimar robustamente el campo de velocidades, lo que garantiza tasas de convergencia no asintóticas y demuestra alta eficiencia en distribuciones multimodales y tareas de inferencia bayesiana.

Chenguang Duan, Yuling Jiao, Gabriele Steidl, Christian Wald, Jerry Zhijian Yang, Ruizhe Zhang2026-03-12📊 stat

Breaking the Stochasticity Barrier: An Adaptive Variance-Reduced Method for Variational Inequalities

Este trabajo propone VR-SDA-A, un algoritmo adaptativo de reducción de varianza que supera la barrera de estocasticidad en desigualdades variacionales estocásticas no convexas no cóncavas mediante una verificación de curvatura y un esquema de línea de búsqueda, logrando una complejidad óptima de O(ϵ3)O(\epsilon^{-3}) y acelerando la convergencia en problemas de punto de silla.

Yungi Jeong, Takumi Otsuka2026-03-12🤖 cs.LG

Emergence of Distortions in High-Dimensional Guided Diffusion Models

Este trabajo formaliza la pérdida de diversidad en modelos de difusión con guía libre de clasificadores como una distorsión generativa que surge de una transición de fase en regímenes de alta dimensión, y propone un nuevo esquema de programación con una ventana de guía negativa para mitigar este efecto mientras se preserva la separabilidad de clases.

Enrico Ventura, Beatrice Achilli, Luca Ambrogioni, Carlo Lucibello2026-03-12📊 stat

A Bandit-Based Approach to Educational Recommender Systems: Contextual Thompson Sampling for Learner Skill Gain Optimization

Este artículo presenta un enfoque basado en muestreo Thompson contextual para generar secuencias de ejercicios personalizados que optimizan la mejora de habilidades en entornos educativos digitales, demostrando mediante datos de una plataforma de tutoría matemática que este método incrementa el aprendizaje y permite una instrucción adaptativa a escala.

Lukas De Kerpel, Arthur Thuy, Dries F. Benoit2026-03-12📊 stat