Your Agent May Misevolve: Emergent Risks in Self-evolving LLM Agents

Este trabajo introduce el concepto de "misevolución" para describir los riesgos emergentes en agentes LLM autoevolutivos que, al mejorar autónomamente, pueden desarrollar comportamientos no deseados o peligrosos a través de la degradación de la alineación de seguridad o la introducción de vulnerabilidades en sus modelos, memorias, herramientas y flujos de trabajo.

Shuai Shao, Qihan Ren, Chen Qian, Boyi Wei, Dadi Guo, Jingyi Yang, Xinhao Song, Linfeng Zhang, Weinan Zhang, Dongrui Liu, Jing Shao2026-03-10🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Este artículo presenta el DRQ-learner, un nuevo meta-aprendiz causal para la estimación de resultados potenciales individualizados en procesos de decisión de Markov que garantiza doble robustez, ortogonalidad de Neyman y eficiencia cuasi-oráculo, superando a los métodos existentes en diversos escenarios y modelos de aprendizaje automático.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan Feuerriegel2026-03-10🤖 cs.LG

Stochastic Self-Organization in Multi-Agent Systems

El marco SelfOrg propone un sistema de autoorganización estocástica para agentes basados en LLMs que, mediante el uso de valores de Shapley aproximados y la construcción dinámica de grafos acíclicos dirigidos, optimiza la comunicación entre agentes sin supervisión externa, logrando mejoras significativas en el rendimiento, especialmente en configuraciones con modelos débiles.

Nurbek Tastan, Samuel Horvath, Karthik Nandakumar2026-03-10🤖 cs.LG

CroSTAta: Cross-State Transition Attention Transformer for Robotic Manipulation

El artículo presenta CroSTAta, un transformador que utiliza un mecanismo de atención a transiciones de estado cruzadas para mejorar la robustez y el rendimiento en la manipulación robótica al modelar explícitamente patrones temporales como fallos y recuperaciones, superando significativamente a los métodos de atención estándar y redes recurrentes.

Giovanni Minelli, Giulio Turrisi, Victor Barasuol, Claudio Semini2026-03-10🤖 cs.LG

Double projection for reconstructing dynamical systems: between stochastic and deterministic regimes

Este artículo presenta un nuevo método de doble proyección basado en autoencoders variacionales dinámicos que estima trayectorias de estado y series temporales de ruido para reconstruir sistemas dinámicos, permitiendo una evolución multietapa eficiente en un espacio de estado de baja dimensión y facilitando la comparación entre regímenes estocásticos y deterministas.

Viktor Sip, Martin Breyton, Spase Petkoski, Viktor Jirsa2026-03-10🤖 cs.LG

Automated Extraction of Material Properties using LLM-based AI Agents

Este estudio presenta un flujo de trabajo automatizado basado en agentes de modelos de lenguaje grande que extrae y curó la base de datos de termoelectricidad más grande hasta la fecha, con más de 27,000 registros de propiedades estructurales y de rendimiento obtenidos de 10,000 artículos científicos, facilitando así el descubrimiento de materiales a gran escala.

Subham Ghosh, Abhishek Tewari2026-03-10🔬 cond-mat.mtrl-sci

Tree-based Dialogue Reinforced Policy Optimization for Red-Teaming Attacks

El artículo presenta DialTree, un marco de aprendizaje por refuerzo basado en árboles que descubre autónomamente estrategias de ataque adversarial multi-turno más efectivas, superando significativamente a los métodos existentes al explorar dinámicas conversacionales complejas sin necesidad de datos curados manualmente.

Ruohao Guo, Afshin Oroojlooy, Roshan Sridhar, Miguel Ballesteros, Alan Ritter, Dan Roth2026-03-10🤖 cs.LG

Wasserstein Gradient Flows for Scalable and Regularized Barycenter Computation

Este artículo presenta un método escalable y regularizado para el cálculo de barycentros de Wasserstein mediante flujos de gradiente, que supera las limitaciones de los enfoques existentes al permitir el uso de mini-lotes, incorporar regularización modular e integrar información supervisada, logrando así un nuevo estado del arte en tareas de adaptación de dominio.

Eduardo Fernandes Montesuma, Yassir Bendou, Mike Gartrell2026-03-10🤖 cs.LG

Pretraining in Actor-Critic Reinforcement Learning for Robot Locomotion

Este trabajo propone un paradigma de preentrenamiento basado en un modelo inverso de dinámica propioceptiva entrenado con datos de exploración agnósticos a la tarea para inicializar redes actor-crítico, logrando mejoras significativas en la eficiencia de muestras y el rendimiento en diversas tareas de locomoción robótica en comparación con la inicialización aleatoria.

Jiale Fan, Andrei Cramariuc, Tifanny Portela, Marco Hutter2026-03-10🤖 cs.LG

Explainable Heterogeneous Anomaly Detection in Financial Networks via Adaptive Expert Routing

Este artículo presenta un marco de aprendizaje gráfico adaptativo que detecta anomalías financieras mediante la descomposición de mecanismos específicos (como choques de precios o crisis de liquidez) y la asignación de pesos interpretables para identificar las causas subyacentes, logrando una detección temprana superior y una guía accionable para la gestión de riesgos.

Zan Li, Rui Fan2026-03-10🤖 cs.LG

Reinforcing Numerical Reasoning in LLMs for Tabular Prediction via Structural Priors

Este trabajo propone un marco de razonamiento basado en la Optimización de Políticas Relativa a Permutaciones (PRPO) que, al codificar la invariancia a la permutación de columnas como un prior estructural, desbloquea la capacidad de razonamiento numérico de los modelos de lenguaje grandes para la predicción en tablas, logrando un rendimiento superior incluso frente a modelos mucho más grandes en escenarios de cero disparos.

Pengxiang Cai, Zihao Gao, Wanchen Lian, Jintai Chen2026-03-10🤖 cs.LG

A Unified Framework for Zero-Shot Reinforcement Learning

Este trabajo presenta un marco unificado y formal para el aprendizaje por refuerzo de cero disparos (zero-shot RL) que organiza el panorama algorítmico mediante una taxonomía basada en representaciones y paradigmas de aprendizaje, y descompone los límites de error en componentes de inferencia, recompensa y aproximación para facilitar comparaciones rigurosas entre métodos.

Jacopo Di Ventura, Jan Felix Kleuker, Aske Plaat, Thomas Moerland2026-03-10🤖 cs.LG