Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Este estudio propone un marco novedoso de aprendizaje continuo para clasificación de imágenes que adapta métodos de aprendizaje incremental por tareas al escenario sin identificador de tarea, utilizando detección de distribuciones fuera de distribución y normalización por lotes específica por tarea para predecir el identificador de tarea y equilibrar eficazmente la plasticidad y la estabilidad.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Particle Trajectory Representation Learning with Masked Point Modeling

El artículo presenta PoLAr-MAE, un modelo de aprendizaje auto-supervisado basado en la predicción de energía de puntos enmascarados que logra una eficiencia de datos excepcional al entrenarse con solo 100 eventos etiquetados para obtener un rendimiento de segmentación semántica comparable al de los métodos supervisados entrenados con más de 100.000 eventos en imágenes de cámaras de proyección temporal de argón líquido (LArTPC).

Sam Young, Yeon-jae Jwa, Kazuhiro Terao2026-03-12⚛️ hep-ex

Graph machine learning for flight delay prediction due to holding manouver

Este estudio propone un enfoque de aprendizaje automático basado en grafos para predecir los retrasos de vuelos causados por maniobras de espera, demostrando que un modelo CatBoost enriquecido con características de red supera a las Redes de Atención Gráfica (GAT) en este conjunto de datos desequilibrado y ofrece una herramienta web para simulaciones operativas en tiempo real.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG

Logarithmic Regret for Online KL-Regularized Reinforcement Learning

Este trabajo propone un algoritmo de aprendizaje por refuerzo en línea basado en el optimismo para contextos de banda contextual y RL regularizados por KL, demostrando teóricamente que explora el paisaje de optimización benigno de la regularización para lograr un límite de arrepentimiento logarítmico, superando así las limitaciones de análisis previos que dependían de supuestos de cobertura fuertes o se reducían al escenario de RL tradicional.

Heyang Zhao, Chenlu Ye, Wei Xiong + 2 more2026-03-12📊 stat

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

El artículo presenta DIFU-Ada, un marco de adaptación en tiempo de inferencia sin entrenamiento que permite a los solucionadores de optimización combinatoria basados en difusión lograr una generalización cero-shot entre diferentes problemas y escalas, demostrando que un modelo entrenado exclusivamente en el Problema del Viajante (TSP) puede resolver eficazmente variantes como el TSP de Recolección de Premios y el Problema de Orientación.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Learn to Bid as a Price-Maker Wind Power Producer

Este artículo propone un algoritmo de aprendizaje en línea basado en el problema de los bandidos multi-brazo contextual para optimizar las ofertas de productores eólicos con capacidad de influir en el precio, superando las limitaciones computacionales y de modelado de los enfoques de precio-maker tradicionales mediante su validación en los mercados eléctricos alemanes.

Shobhit Singhal, Marta Fochesato, Liviu Aolaritei + 1 more2026-03-12⚡ eess

An Algorithm to perform Covariance-Adjusted Support Vector Classification in Non-Euclidean Spaces

Este estudio propone un algoritmo que ajusta la clasificación de máquinas de vectores de soporte (SVM) en espacios no euclidianos incorporando la covarianza de los datos mediante descomposición de Cholesky, demostrando que este enfoque supera el rendimiento de los métodos SVM tradicionales al reconocer que las condiciones de optimalidad de KKT y el principio de margen máximo son subóptimos fuera de los espacios euclidianos.

Satyajeet Sahoo, Jhareswar Maiti2026-03-12📊 stat

Rethinking Few-Shot Image Fusion: Granular Ball Priors Enable General-Purpose Deep Fusion

Este artículo propone un nuevo enfoque de fusión de imágenes de pocos ejemplos que introduce el concepto de "priors incompletos" y un algoritmo de cálculo de píxeles de bolas granulares (GBPC) para permitir que una red neuronal ligera aprenda reglas de fusión adaptativas y generalizables sin necesidad de imágenes fusionadas reales como supervisión.

Minjie Deng, Yan Wei, An Wu, Yuncan Ouyang, Hao Zhai, Qianyao Peng2026-03-12⚡ eess

Score Matching Diffusion Based Feedback Control and Planning of Nonlinear Systems

Este artículo propone un marco de control basado en la coincidencia de puntuación de difusión para sistemas no lineales, que utiliza un proceso de difusión hacia adelante seguido de una ley de retroalimentación determinista de "desruido" para guiar la densidad de probabilidad del sistema hacia una distribución objetivo, ofreciendo una alternativa tratable al control no lineal con garantías teóricas para sistemas sin deriva y lineales invariantes en el tiempo.

Karthik Elamvazhuthi, Darshan Gadginmath, Fabio Pasqualetti2026-03-12⚡ eess

Panda: A pretrained forecast model for chaotic dynamics

El artículo presenta Panda, un modelo de pronóstico preentrenado que, tras ser entrenado exclusivamente en un conjunto de datos sintéticos de sistemas caóticos, demuestra capacidades emergentes como la predicción en cero disparos de sistemas no vistos, la generalización de ecuaciones diferenciales ordinarias a parciales y el rendimiento efectivo en series temporales experimentales del mundo real.

Jeffrey Lai, Anthony Bao, William Gilpin2026-03-12🌀 nlin

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Este estudio presenta una encuesta basada en datos que analiza el crecimiento y las tendencias de la investigación sobre las limitaciones de los modelos de lenguaje grandes (LLLMs) entre 2022 y 2025, identificando mediante un enfoque semiautomático que el razonamiento es la limitación más estudiada y que el volumen de publicaciones sobre este tema ha aumentado significativamente, especialmente en arXiv.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Este artículo propone un marco de razonamiento abductivo basado en la consistencia que integra las predicciones de múltiples modelos preentrenados mediante reglas lógicas para mitigar la degradación del rendimiento en entornos novedosos, logrando mejoras significativas en precisión y recall frente a enfoques individuales y de conjunto estándar.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI