Evolving Diffusion and Flow Matching Policies for Online Reinforcement Learning

El artículo presenta GoRL, un marco de aprendizaje por refuerzo en línea que resuelve la tensión entre la estabilidad de la optimización y la expresividad de las políticas mediante la decouplaje de la optimización en un espacio latente tratable y la síntesis de acciones en un espacio generativo, logrando un rendimiento superior en tareas de control continuo.

Chubin Zhang, Zhenglin Wan, Feng Chen, Fuchao Yang, Lang Feng, Yaxin Zhou, Xingrui Yu, Yang You, Ivor Tsang, Bo An2026-03-10🤖 cs.LG

Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability

Este artículo presenta la Regresión Isotónica Shapley Escasa (SISR), un marco unificado de explicación no lineal que aprende simultáneamente una transformación monótona para restaurar la aditividad y aplica una restricción de escasez L0 para identificar características relevantes de manera eficiente, superando así las limitaciones de distorsión y costo computacional de los valores Shapley estándar en escenarios de alta dimensionalidad y dependencias complejas.

Jialai She2026-03-10🤖 cs.LG

Two-Step Data Augmentation for Masked Face Detection and Recognition: Turning Fake Masks to Real

Este trabajo propone un marco de aumento de datos generativo de dos pasos que combina deformación de máscaras basada en reglas y traducción de imágenes mediante GANs para generar muestras de rostros con mascarilla, logrando mejoras consistentes con una fracción mínima de los datos de entrenamiento utilizados por métodos anteriores, a pesar de haber sido desarrollado bajo severas restricciones de recursos y tiempo.

Yan Yang, George Bebis, Mircea Nicolescu2026-03-10🤖 cs.LG

ReDepth Anything: Test-Time Depth Refinement via Self-Supervised Re-lighting

El artículo presenta "Re-Depth Anything", un marco de auto-supervisión en tiempo de prueba que mejora la estimación de profundidad monoculosa al fusionar modelos fundacionales con priores de modelos de difusión 2D a gran escala mediante un refinamiento basado en re-iluminación y muestreo de distorsión de puntuación (SDS), logrando resultados de vanguardia sin necesidad de etiquetas.

Ananta R. Bhattarai, Helge Rhodin2026-03-10🤖 cs.LG

Concurrent training methods for Kolmogorov-Arnold networks: Disjoint datasets and FPGA implementation

Este artículo presenta tres estrategias complementarias para acelerar el entrenamiento de redes Kolmogorov-Arnold (KAN) basadas en el método Newton-Kaczmarz: un procedimiento de preentrenamiento, el entrenamiento en subconjuntos de datos disjuntos con fusión posterior de modelos y una técnica de paralelización implementada y validada en hardware FPGA.

Andrew Polar, Michael Poluektov2026-03-10🤖 cs.LG

Latent Sculpting for Zero-Shot Generalization: A Manifold Learning Approach to Out-of-Distribution Anomaly Detection

Este artículo presenta "Latent Sculpting", un enfoque de aprendizaje de variedades que utiliza un codificador Transformer con una pérdida de escultura latente binaria y un flujo autoregresivo enmascarado para lograr una detección de anomalías generalizable a distribuciones desconocidas en datos tabulares, logrando un alto rendimiento en la identificación de ataques cibernéticos cero-día sin necesidad de ejemplos de entrenamiento específicos.

Rajeeb Thapa Chhetri, Saurab Thapa, Avinash Kumar, Zhixiong Chen2026-03-10🤖 cs.LG

Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning

El artículo presenta FedORA, un algoritmo de optimización primal-dual que certifica el derecho al olvido en el aprendizaje federado vertical mediante la eliminación eficiente de muestras y etiquetas sin necesidad de reentrenar el modelo desde cero, garantizando al mismo tiempo la utilidad del modelo y reduciendo la sobrecarga computacional.

Yu Jiang, Xindi Tong, Ziyao Liu, Xiaoxi Zhang, Kwok-Yan Lam, Chee Wei Tan2026-03-10🤖 cs.LG

Sparse Offline Reinforcement Learning with Corruption Robustness

Este trabajo propone métodos actor-crítico con oráculos de estimación robusta y dispersa que logran las primeras garantías no triviales para el aprendizaje por refuerzo offline en MDPs de alta dimensión y dispersos bajo concentrabilidad de política única y corrupción de datos fuerte, superando las limitaciones de los enfoques tradicionales como la iteración de valor por mínimos cuadrados.

Nam Phuong Tran, Andi Nika, Goran Radanovic, Long Tran-Thanh, Debmalya Mandal2026-03-10🤖 cs.LG

Reliable Grid Forecasting: State Space Models for Safety-Critical Energy Systems

Este artículo presenta un marco de evaluación centrado en la seguridad para la predicción de carga de la red eléctrica que, al demostrar que las métricas de precisión estándar son insuficientes para gestionar riesgos asimétricos, identifica la susceptibilidad de los modelos probabilísticos a la "falsa seguridad" por inflación de pronósticos y propone estrategias de integración meteorológica y objetivos restringidos para equilibrar la fiabilidad operativa con la eficiencia energética.

Sunki Hong, Jisoo Lee2026-03-10⚡ eess

From Mice to Trains: Amortized Bayesian Inference on Graph Data

Este trabajo adapta la Inferencia Bayesiana Amortizada (ABI) a datos de grafos mediante un pipeline de dos módulos que combina codificadores invariantes a permutaciones con estimadores neuronales de posterior, demostrando su eficacia en la recuperación y calibración de parámetros a nivel de nodos, aristas y grafos en dominios sintéticos, biológicos y logísticos.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian Bürkner2026-03-10🤖 cs.LG

DevBench: A Realistic, Developer-Informed Benchmark for Code Generation Models

DevBench es un nuevo benchmark impulsado por telemetría real que evalúa modelos de lenguaje grandes en tareas de generación de código ecológicamente válidas, ofreciendo diagnósticos detallados sobre su precisión sintáctica, razonamiento semántico y utilidad práctica para guiar su selección y mejora.

Pareesa Ameneh Golnari, Adarsh Kumarappan, Wen Wen, Xiaoyu Liu, Gabriel Ryan, Yuting Sun, Shengyu Fu, Elsie Nallipogu2026-03-10🤖 cs.LG

ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

El artículo presenta ELSA, un marco innovador que integra el aprendizaje dividido y el aprendizaje federado jerárquico para optimizar el ajuste fino de modelos de lenguaje grandes en el borde de la red mediante agrupación de clientes basada en comportamiento, división dinámica del modelo y un esquema de comunicación ligero que garantiza la privacidad y la eficiencia en entornos con recursos limitados.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

El artículo presenta MeanCache, un marco de caché sin entrenamiento que acelera la inferencia de Flow Matching al utilizar velocidades promedio derivadas de productos Jacobiano-vector en lugar de velocidades instantáneas, logrando mejoras significativas en la velocidad y la calidad de generación en modelos como FLUX.1, Qwen-Image y HunyuanVideo.

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG