Upper Generalization Bounds for Neural Oscillators

Este estudio establece límites superiores de generalización PAC para osciladores neuronales basados en ecuaciones diferenciales de segundo orden, demostrando teóricamente y validando numéricamente que sus errores de estimación crecen polinomialmente con el tamaño de la red y la duración temporal, y que regularizar las constantes de Lipschitz mejora su capacidad de generalización en sistemas estructurales no lineales.

Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael Beer2026-03-11🤖 cs.LG

Good Reasoning Makes Good Demonstrations: Implicit Reasoning Quality Supervision via In-Context Reinforcement Learning

El artículo presenta In-Context RLVR, un método que utiliza el "Ganancia de Evidencia" derivada del aprendizaje en contexto para reponderar implícitamente las recompensas y priorizar trazas de razonamiento de alta calidad durante el entrenamiento, mejorando así tanto la precisión como la calidad del razonamiento en modelos de lenguaje.

Tiehua Mei, Minxuan Lv, Leiyu Pan, Zhenpeng Su, Hongru Hou, Hengrui Chen, Ao Xu, Deqing Yang2026-03-11🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Este artículo presenta un marco jerárquico novedoso de aprendizaje multi-tarea y multi-fidelidad basado en procesos gaussianos que unifica la similitud entre tareas y las características de los datos de diferentes fidelidades para mejorar la precisión y la eficiencia en el modelado sustituto de sistemas de fabricación.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui Shao2026-03-11🤖 cs.LG

GAST: Gradient-aligned Sparse Tuning of Large Language Models with Data-layer Selection

El artículo presenta GAST, un método innovador de ajuste fino eficiente en parámetros que supera las limitaciones de los enfoques existentes al realizar simultáneamente una selección adaptativa de datos y capas mediante un alineamiento de gradientes, logrando así un rendimiento superior al reducir la redundancia informativa.

Kai Yao, Zhenghan Song, Kaixin Wu, Mingjie Zhong, Danzhao Cheng, Zhaorui Tan, Yixin Ji, Penglei Gao2026-03-11🤖 cs.LG

CarbonBench: A Global Benchmark for Upscaling of Carbon Fluxes Using Zero-Shot Learning

El artículo presenta CarbonBench, el primer punto de referencia global que utiliza aprendizaje cero-shot para evaluar y estandarizar la escalabilidad de los flujos de carbono en ecosistemas no observados, integrando más de 1,3 millones de datos de 567 torres de flujo para mejorar la modelización climática y la contabilidad de carbono.

Aleksei Rozanov, Arvind Renganathan, Yimeng Zhang, Vipin Kumar2026-03-11🤖 cs.LG

Generative Drifting is Secretly Score Matching: a Spectral and Variational Perspective

Este artículo demuestra teóricamente que el modelado generativo mediante deriva es equivalente al ajuste de puntuaciones (score matching) bajo un kernel gaussiano, estableciendo un marco variacional y espectral que explica la convergencia, justifica el uso de kernels laplacianos y la importancia del operador stop-gradient, mientras propone un nuevo esquema de annealing para acelerar el entrenamiento.

Erkan Turan, Maks Ovsjanikov2026-03-11🤖 cs.LG

SignalMC-MED: A Multimodal Benchmark for Evaluating Biosignal Foundation Models on Single-Lead ECG and PPG

El artículo presenta SignalMC-MED, un nuevo benchmark multimodal basado en 22,256 visitas con señales sincronizadas de ECG y PPG que evalúa modelos fundacionales de biosignales, demostrando que los modelos específicos del dominio superan a los generales, la fusión multimodal mejora los resultados y las características manuales siguen siendo valiosas.

Fredrik K. Gustafsson, Xiao Gu, Mattia Carletti, Patitapaban Palo, David W. Eyre, David A. Clifton2026-03-11🤖 cs.LG

When Learning Rates Go Wrong: Early Structural Signals in PPO Actor-Critic

Este artículo presenta el Indicador de Sobreajuste-Subajuste (OUI) como una señal estructural temprana y eficiente que, al analizar los patrones de activación de las neuronas en PPO, permite discriminar con precisión entre tasas de aprendizaje óptimas e inestables mucho antes de completar el entrenamiento, diferenciando además los comportamientos ideales de las redes actor y crítico.

Alberto Fernández-Hernández, Cristian Pérez-Corral, Jose I. Mestre, Manuel F. Dolz, Jose Duato, Enrique S. Quintana-Ortí2026-03-11🤖 cs.AI

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

Este artículo propone una nueva familia de optimizadores basados en normas de operadores normalizadas (como MOGA) que garantizan una estabilidad independiente del ancho de la red y permiten una transferencia efectiva de hiperparámetros, superando las limitaciones de métodos existentes como AdamW y Muon mediante una perspectiva geométrica de descenso de gradiente.

Ruihan Xu, Jiajin Li, Yiping Lu2026-03-11🤖 cs.LG

From Semantics to Pixels: Coarse-to-Fine Masked Autoencoders for Hierarchical Visual Understanding

El paper presenta C2FMAE, un autoencoder enmascarado de aprendizaje auto-supervisado que resuelve la tensión entre el aprendizaje de semántica global y detalles locales mediante un enfoque jerárquico de tres niveles (semántico, de instancia y píxel) con un decodificador en cascada y un currículo de enmascaramiento progresivo, logrando mejoras significativas en tareas de visión por computadora.

Wenzhao Xiang, Yue Wu, Hongyang Yu, Feng Gao, Fan Yang, Xilin Chen2026-03-11🤖 cs.LG