Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Este artículo evalúa la capacidad de generalización de agentes de ciberataque autónomos ante cambios en la asignación de direcciones IP, concluyendo que aunque los agentes impulsados por LLM logran el mejor rendimiento en escenarios no vistos, lo hacen a costa de un mayor consumo computacional, menor transparencia y la aparición de fallos prácticos como bucles de acciones inválidas.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian Garcia2026-03-12💻 cs

Gated Adaptation for Continual Learning in Human Activity Recognition

Este artículo propone un marco de aprendizaje continuo eficiente en parámetros para el reconocimiento de actividades humanas mediante sensores portátiles, que utiliza una modulación con puertas a nivel de canal sobre representaciones preentrenadas congeladas para lograr un equilibrio óptimo entre estabilidad y plasticidad, reduciendo significativamente el olvido catastrófico y mejorando la precisión sin necesidad de buffers de repetición.

Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh2026-03-12🤖 cs.LG

Revisiting Sharpness-Aware Minimization: A More Faithful and Effective Implementation

Este artículo propone XSAM, una implementación mejorada y más fiel de la Minimización Consciente de la Agudeza (SAM) que ofrece una interpretación intuitiva de su funcionamiento y supera sus limitaciones actuales mediante una estimación explícita de la dirección del máximo y un espacio de búsqueda optimizado, logrando un rendimiento superior con un costo computacional insignificante.

Jianlong Chen, Zhiming Zhou2026-03-12🤖 cs.LG

InFusionLayer: a CFA-based ensemble tool to generate new classifiers for learning and modeling

El artículo presenta \texttt{InFusionLayer}, una herramienta de código abierto en Python que implementa el Análisis de Fusión Combinatoria (CFA) mediante funciones de característica rango-puntuación y diversidad cognitiva para crear arquitecturas de aprendizaje en conjunto que mejoran el rendimiento en problemas de clasificación multiclase dentro de flujos de trabajo de PyTorch, TensorFlow y Scikit-learn.

Eric Roginek, Jingyan Xu, D. Frank. Hsu2026-03-12🤖 cs.LG

Where Do Flow Semantics Reside? A Protocol-Native Tabular Pretraining Paradigm for Encrypted Traffic Classification

El artículo propone FlowSem-MAE, un paradigma de preentrenamiento tabular nativo de protocolos que supera las limitaciones de los enfoques basados en secuencias al preservar la semántica de los campos definidos por el protocolo mediante unidades semánticas de flujo (FSU), logrando una clasificación superior de tráfico cifrado con la mitad de datos etiquetados.

Sizhe Huang, Shujie Yang2026-03-12🤖 cs.AI

OmniGuide: Universal Guidance Fields for Enhancing Generalist Robot Policies

El artículo presenta OmniGuide, un marco flexible que mejora el rendimiento de los modelos de política generalista visión-lenguaje-acción (VLA) en tareas complejas al integrar diversas fuentes de orientación como funciones de energía diferenciables que guían la generación de acciones en el espacio 3D.

Yunzhou Song, Long Le, Yong-Hyun Park, Jie Wang, Junyao Shi, Lingjie Liu, Jiatao Gu, Eric Eaton, Dinesh Jayaraman, Kostas Daniilidis2026-03-12💻 cs

Quantization of Ricci Curvature in Information Geometry

Este artículo resuelve tras veinte años la conjetura sobre la cuantización de la curvatura de Ricci en bitnets binarios, demostrando su validez para estructuras de árbol y grafos completos mediante un mecanismo de cancelación universal, refutándola en casos generales con contraejemplos de bucles y extendiendo el análisis a redes DAG gaussianas donde se observa una dicotomía de signo entre curvaturas positivas y negativas.

Carlos C. Rodriguez2026-03-12🔢 math

HTMuon: Improving Muon via Heavy-Tailed Spectral Correction

El artículo presenta HTMuon, un optimizador que mejora el entrenamiento de modelos de lenguaje grandes al corregir la supresión de espectros de pesos de cola pesada inherente a Muon mediante una corrección espectral basada en la teoría de auto-regularización de colas pesadas, logrando así un mejor rendimiento en preentrenamiento y clasificación de imágenes.

Tianyu Pang, Yujie Fang, Zihang Liu, Shenyang Deng, Lei Hsiung, Shuhua Yu, Yaoqing Yang2026-03-12🤖 cs.LG

Stochastic Port-Hamiltonian Neural Networks: Universal Approximation with Passivity Guarantees

Este artículo introduce las redes neuronales port-Hamiltonianas estocásticas (SPH-NNs), un modelo que garantiza la pasividad y la aproximación universal de sistemas dinámicos estocásticos mediante la parametrización de la Hamiltoniana con redes neuronales, demostrando superioridad en la precisión energética y la estabilidad a largo plazo frente a baselines tradicionales en osciladores no lineales.

Luca Di Persio, Matthias Ehrhardt, Youness Outaleb2026-03-12🤖 cs.LG