MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems

Este artículo presenta un método que desacopla la cuantificación de incertidumbre de la arquitectura de la red neuronal mediante la incorporación de la distribución de parámetros del modelo como entrada entrenada con MCMC, logrando así emuladores precisos y computacionalmente eficientes para sistemas dinámicos sin necesidad de muestreo exhaustivo.

Heikki Haario, Zhi-Song Liu, Martin Simon, Hendrik Weichel2026-03-12🤖 cs.LG

ForwardFlow: Simulation only statistical inference using deep learning

El artículo presenta ForwardFlow, un enfoque de inferencia estadística basado únicamente en simulaciones que utiliza una red neuronal profunda con estructura ramificada para resolver el problema inverso de estimación de parámetros, demostrando propiedades deseables como exactitud en muestras finitas, robustez ante contaminación de datos y la capacidad de aproximar algoritmos complejos como el EM.

Stefan Böhringer2026-03-12📊 stat

Bayesian Optimization with Gaussian Processes to Accelerate Stationary Point Searches

Este artículo presenta un marco unificado de optimización bayesiana mediante procesos gaussianos que acelera la búsqueda de puntos estacionarios en superficies de energía potencial mediante un bucle de seis pasos, extensiones avanzadas de kernels y regularización, y una implementación práctica en Rust que demuestra la viabilidad de este enfoque para sistemas de alta dimensión.

Rohit Goswami (Institute IMX and Lab-COSMO, École polytechnique fédérale de Lausanne)2026-03-12📊 stat

Factorized Neural Implicit DMD for Parametric Dynamics

Este trabajo propone un enfoque de aprendizaje automático basado en campos neuronales implícitos factorizados para modelar la evolución temporal de sistemas físicos paramétricos, permitiendo predicciones estables a largo plazo, generalización a parámetros no vistos y análisis espectral sin depender de ecuaciones gobernantes explícitas.

Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos2026-03-12🤖 cs.LG

Cross-Species Transfer Learning for Electrophysiology-to-Transcriptomics Mapping in Cortical GABAergic Interneurons

Este estudio valida la reproducibilidad del marco de mapeo de electrofisiología a transcriptómica en interneuronas GABAérgicas, demuestra que los modelos de secuencia basados en atención pueden igualar a los baselines tradicionales y confirma que el aprendizaje por transferencia de datos de ratón a humano mejora la predicción de subclases en el cerebro humano.

Theo Schwider, Ramin Ramezani2026-03-12🧬 q-bio

Leech Lattice Vector Quantization for Efficient LLM Compression

Este artículo presenta la Cuantización Vectorial de la Red Leech (LLVQ), un método práctico que aprovecha las propiedades óptimas de empaquetado de la red Leech en 24 dimensiones para lograr una compresión de modelos de lenguaje grande (LLM) con un rendimiento superior al estado del arte, superando a técnicas recientes como Quip#, QTIP y PVQ sin necesidad de costosos mecanismos de búsqueda o almacenamiento de libros de códigos.

Tycho F. A. van der Ouderaa, Mart van Baalen, Paul Whatmough, Markus Nagel2026-03-12🤖 cs.LG

V2M-Zero: Zero-Pair Time-Aligned Video-to-Music Generation

El paper presenta V2M-Zero, un enfoque de generación de música a partir de video sin pares de datos que logra una alineación temporal precisa al extraer y transferir estructuras de cambio temporal independientes dentro de cada modalidad mediante curvas de eventos, superando significativamente a los métodos basados en datos pareados.

Yan-Bo Lin, Jonah Casebeer, Long Mai, Aniruddha Mahapatra, Gedas Bertasius, Nicholas J. Bryan2026-03-12🤖 cs.AI

Neural Field Thermal Tomography: A Differentiable Physics Framework for Non-Destructive Evaluation

El artículo presenta NeFTY, un marco de física diferenciable que reconstruye cuantitativamente propiedades materiales en 3D y localiza defectos subsuperficiales mediante la parametrización de un campo de difusividad continuo optimizado con un solver numérico riguroso, superando las limitaciones de las aproximaciones tradicionales y las redes neuronales informadas por física en escenarios de difusión transitoria.

Tao Zhong, Yixun Hu, Dongzhe Zheng, Aditya Sood, Christine Allen-Blanchette2026-03-12🔬 cond-mat.mtrl-sci

XConv: Low-memory stochastic backpropagation for convolutional layers

El artículo presenta XConv, un método de sustitución directa para capas convolucionales que reduce significativamente el uso de memoria mediante el almacenamiento de activaciones comprimidas y la estimación estocástica de gradientes, manteniendo al mismo tiempo el rendimiento, la convergencia y la compatibilidad con arquitecturas existentes sin imponer restricciones adicionales.

Anirudh Thatipelli, Jeffrey Sam, Mathias Louboutin, Ali Siahkoohi, Rongrong Wang, Felix J. Herrmann2026-03-11🤖 cs.LG

A Survey on Decentralized Federated Learning

Esta encuesta revisa sistemáticamente los métodos de aprendizaje federado descentralizado (DFL) desde 2018 hasta principios de 2026, proponiendo una taxonomía unificada basada en desafíos que clasifica las arquitecturas tradicionales y basadas en blockchain, al tiempo que identifica limitaciones en las prácticas de evaluación y define direcciones futuras de investigación.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele Tolomei2026-03-11🤖 cs.LG

Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets

Este artículo demuestra que las redes neuronales convolucionales sobredimensionadas contienen subredes estructuradas que pueden aproximar redes más pequeñas sin entrenamiento, superando las limitaciones matemáticas previas mediante una generalización del problema de la suma de subconjuntos aleatorios para abordar la poda estructurada.

Arthur da Cunha, Francesco d'Amore, Emanuele Natale2026-03-11🤖 cs.LG

Multi-agent Assessment with QoS Enhancement for HD Map Updates in a Vehicular Network

Este artículo propone y evalúa una solución de aprendizaje por refuerzo multiagente basada en Q-learning para optimizar las actualizaciones de mapas de alta definición en redes vehiculares, logrando reducciones significativas en la latencia en comparación con enfoques de agente único al evitar la carga computacional excesiva de algoritmos más complejos.

Jeffrey Redondo, Nauman Aslam, Juan Zhang + 1 more2026-03-11🤖 cs.AI

Sparse Variational Student-t Processes for Heavy-tailed Modeling

El artículo presenta los Procesos de Student-t Variacionales Dispersos (SVTP), un marco novedoso que combina la robustez ante valores atípicos de los procesos Student-t con la escalabilidad de los métodos de puntos inducidos, logrando una convergencia más rápida y menores errores de predicción en comparación con los procesos gaussianos dispersos en conjuntos de datos grandes y con colas pesadas.

Jian Xu, Delu Zeng, John Paisley2026-03-11🤖 cs.AI

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Este artículo presenta un marco unificado que modela la cuantización y la dispersión como ruido aditivo y utiliza una transformada de descuantización por regresión de crestas para establecer un camino de gradiente explícito, permitiendo el entrenamiento robusto y estable de redes neuronales a precisiones arbitrarias y niveles de dispersión, incluidos modelos A1W1 y sub-1-bit.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew Howard2026-03-11🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

El artículo presenta ARLBench, un benchmark eficiente y flexible para la optimización de hiperparámetros en aprendizaje por refuerzo que permite comparar diversos métodos de AutoRL utilizando un subconjunto representativo de tareas que reduce drásticamente los recursos computacionales necesarios.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa Eimer2026-03-11🤖 cs.LG

DRUPI: Dataset Reduction Using Privileged Information

El artículo presenta DRUPI, un método de condensación de datasets que mejora el rendimiento al sintetizar información privilegiada (como etiquetas de características o atención) junto con los datos reducidos, logrando ganancias significativas en diversas tareas de visión por computadora.

Shaobo Wang, Youxin Jiang, Tianle Niu, Yantai Yang, Ruiji Zhang, Shuhao Hu, Shuaiyu Zhang, Chenghao Sun, Weiya Li, Conghui He, Xuming Hu, Linfeng Zhang2026-03-11🤖 cs.AI