Hierarchical Inference and Closure Learning via Adaptive Surrogates for ODEs and PDEs

Este artículo presenta un marco metodológico jerárquico que combina inferencia bayesiana, modelos de cierre basados en aprendizaje automático y una estrategia de optimización bilevel con surrogados (FNO y PINN) para resolver simultáneamente problemas inversos de parámetros y aprender dinámicas desconocidas en sistemas de EDOs y EDPs utilizando datos de múltiples sistemas físicos relacionados.

Pengyu Zhang, Arnaud Vadeboncoeur, Alex Glyn-Davies + 1 more2026-03-05🤖 cs.LG

Stable and Steerable Sparse Autoencoders with Weight Regularization

El artículo demuestra que la regularización de pesos, específicamente mediante penalizaciones L2, mejora significativamente la estabilidad y la consistencia de las características aprendidas por los autoencoders dispersos (SAE) entre diferentes semillas aleatorias, aumentando así la tasa de éxito en la dirección de modelos de lenguaje sin comprometer la interpretabilidad automática.

Piotr Jedryszek, Oliver M. Crook2026-03-05🤖 cs.LG

Beyond Mixtures and Products for Ensemble Aggregation: A Likelihood Perspective on Generalized Means

Este trabajo presenta una perspectiva basada en la verosimilitud para la agregación de densidades mediante medias generalizadas, demostrando teórica y empíricamente que solo el rango de orden r[0,1]r \in [0,1] garantiza mejoras sistemáticas sobre las distribuciones individuales, lo que justifica el uso predominante de la agregación lineal y geométrica en ensambles profundos.

Raphaël Razafindralambo, Rémy Sun, Frédéric Precioso + 2 more2026-03-05🤖 cs.LG

PTOPOFL: Privacy-Preserving Personalised Federated Learning via Persistent Homology

El artículo presenta PTOPOFL, un marco de aprendizaje federado personalizado que protege la privacidad y mejora la precisión en distribuciones no IID al sustituir el intercambio de gradientes por descriptores topológicos de homología persistente, logrando una menor fuga de información y un rendimiento superior en escenarios de salud y patológicos.

Kelly L Vomo-Donfack, Adryel Hoszu, Grégory Ginot + 1 more2026-03-05🤖 cs.LG

From Reachability to Learnability: Geometric Design Principles for Quantum Neural Networks

Este artículo reencuadra el diseño de redes neuronales cuánticas desde la alcanzabilidad del estado hacia la aprendibilidad mediante principios geométricos y el criterio de selectividad local casi completa (aCLS), demostrando que acoplar datos y pesos con entrelazamiento parametrizado permite deformaciones geométricas adaptativas más eficientes.

Vishal S. Ngairangbam, Michael Spannowsky2026-03-03⚛️ quant-ph

Scaling Laws for Neural Language Models

El artículo establece leyes empíricas de escalado que demuestran que el rendimiento de los modelos de lenguaje sigue una ley de potencias en función del tamaño del modelo, el conjunto de datos y la capacidad de cómputo, revelando que la asignación óptima de recursos implica entrenar modelos muy grandes en conjuntos de datos relativamente pequeños y detener el entrenamiento antes de la convergencia completa.

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG