Gated Adaptation for Continual Learning in Human Activity Recognition

Este artículo propone un marco de aprendizaje continuo eficiente en parámetros para el reconocimiento de actividades humanas mediante sensores portátiles, que utiliza una modulación con puertas a nivel de canal sobre representaciones preentrenadas congeladas para lograr un equilibrio óptimo entre estabilidad y plasticidad, reduciendo significativamente el olvido catastrófico y mejorando la precisión sin necesidad de buffers de repetición.

Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh2026-03-12🤖 cs.LG

Revisiting Sharpness-Aware Minimization: A More Faithful and Effective Implementation

Este artículo propone XSAM, una implementación mejorada y más fiel de la Minimización Consciente de la Agudeza (SAM) que ofrece una interpretación intuitiva de su funcionamiento y supera sus limitaciones actuales mediante una estimación explícita de la dirección del máximo y un espacio de búsqueda optimizado, logrando un rendimiento superior con un costo computacional insignificante.

Jianlong Chen, Zhiming Zhou2026-03-12🤖 cs.LG

InFusionLayer: a CFA-based ensemble tool to generate new classifiers for learning and modeling

El artículo presenta \texttt{InFusionLayer}, una herramienta de código abierto en Python que implementa el Análisis de Fusión Combinatoria (CFA) mediante funciones de característica rango-puntuación y diversidad cognitiva para crear arquitecturas de aprendizaje en conjunto que mejoran el rendimiento en problemas de clasificación multiclase dentro de flujos de trabajo de PyTorch, TensorFlow y Scikit-learn.

Eric Roginek, Jingyan Xu, D. Frank. Hsu2026-03-12🤖 cs.LG

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

El artículo propone FlowSem-MAE, un paradigma de preentrenamiento tabular nativo de protocolos que supera las limitaciones de los enfoques basados en secuencias al preservar la semántica de los campos definidos por el protocolo mediante unidades semánticas de flujo (FSU), logrando una clasificación superior de tráfico cifrado con la mitad de datos etiquetados.

Sizhe Huang, Shujie Yang2026-03-12🤖 cs.AI

OmniGuide: Universal Guidance Fields for Enhancing Generalist Robot Policies

El artículo presenta OmniGuide, un marco flexible que mejora el rendimiento de los modelos de política generalista visión-lenguaje-acción (VLA) en tareas complejas al integrar diversas fuentes de orientación como funciones de energía diferenciables que guían la generación de acciones en el espacio 3D.

Yunzhou Song, Long Le, Yong-Hyun Park, Jie Wang, Junyao Shi, Lingjie Liu, Jiatao Gu, Eric Eaton, Dinesh Jayaraman, Kostas Daniilidis2026-03-12💻 cs

Quantization of Ricci Curvature in Information Geometry

Este artículo resuelve tras veinte años la conjetura sobre la cuantización de la curvatura de Ricci en bitnets binarios, demostrando su validez para estructuras de árbol y grafos completos mediante un mecanismo de cancelación universal, refutándola en casos generales con contraejemplos de bucles y extendiendo el análisis a redes DAG gaussianas donde se observa una dicotomía de signo entre curvaturas positivas y negativas.

Carlos C. Rodriguez2026-03-12🔢 math

HTMuon: Improving Muon via Heavy-Tailed Spectral Correction

El artículo presenta HTMuon, un optimizador que mejora el entrenamiento de modelos de lenguaje grandes al corregir la supresión de espectros de pesos de cola pesada inherente a Muon mediante una corrección espectral basada en la teoría de auto-regularización de colas pesadas, logrando así un mejor rendimiento en preentrenamiento y clasificación de imágenes.

Tianyu Pang, Yujie Fang, Zihang Liu, Shenyang Deng, Lei Hsiung, Shuhua Yu, Yaoqing Yang2026-03-12🤖 cs.LG

Stochastic Port-Hamiltonian Neural Networks: Universal Approximation with Passivity Guarantees

Este artículo introduce las redes neuronales port-Hamiltonianas estocásticas (SPH-NNs), un modelo que garantiza la pasividad y la aproximación universal de sistemas dinámicos estocásticos mediante la parametrización de la Hamiltoniana con redes neuronales, demostrando superioridad en la precisión energética y la estabilidad a largo plazo frente a baselines tradicionales en osciladores no lineales.

Luca Di Persio, Matthias Ehrhardt, Youness Outaleb2026-03-12🤖 cs.LG

KernelSkill: A Multi-Agent Framework for GPU Kernel Optimization

El artículo presenta KernelSkill, un marco de trabajo multiagente que mejora la optimización de kernels de GPU mediante el uso de habilidades de expertos guiadas por conocimiento y una arquitectura de memoria dual, logrando aceleraciones significativas y una tasa de éxito del 100% en comparación con métodos anteriores basados en LLM.

Qitong Sun, Jun Han, Tianlin Li, Zhe Tang, Sheng Chen, Fei Yang, Aishan Liu, Xianglong Liu, Yang Liu2026-03-12🤖 cs.LG

ES-dLLM: Efficient Inference for Diffusion Large Language Models by Early-Skipping

El artículo presenta ES-dLLM, un marco de inferencia sin entrenamiento que acelera los modelos de difusión de lenguaje grande (dLLM) mediante el salto temprano de tokens en capas iniciales basado en la variación de representaciones intermedias y puntuaciones de confianza, logrando aceleraciones de hasta 16,8 veces sin comprometer la calidad de generación.

Zijian Zhu, Fei Ren, Zhanhong Tan, Kaisheng Ma2026-03-12🤖 cs.LG