MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data

El artículo presenta MM-Zero, el primer marco basado en aprendizaje por refuerzo que permite la autoevolución de modelos de visión y lenguaje desde cero sin datos, mediante un sistema de tres roles especializados (propuestor, codificador y solucionador) que generan conceptos visuales abstractos, crean imágenes ejecutables y realizan razonamiento multimodal.

Zongxia Li, Hongyang Du, Chengsong Huang, Xiyang Wu, Lantao Yu, Yicheng He, Jing Xie, Xiaomin Wu, Zhichao Liu, Jiarui Zhang, Fuxiao Liu2026-03-11🤖 cs.LG

Strategically Robust Multi-Agent Reinforcement Learning with Linear Function Approximation

Este artículo presenta \texttt{RQRE-OVI}, un algoritmo de iteración de valor optimista con aproximación de funciones lineales que calcula de manera eficiente y robusta el Equilibrio de Respuesta Cuantitativa Sensible al Riesgo (RQRE) en juegos de Markov de suma general, logrando un equilibrio único y estable que supera la fragilidad del equilibrio de Nash mediante un compromiso cuantificable entre rendimiento y robustez.

Jake Gonzales, Max Horwitz, Eric Mazumdar, Lillian J. Ratliff2026-03-11🤖 cs.LG

Beyond Test-Time Training: Learning to Reason via Hardware-Efficient Optimal Control

Este trabajo presenta la capa Test-Time Control (TTC), un componente arquitectónico basado en control óptimo y un solver LQR eficiente en hardware que, al integrarse en modelos de lenguaje preentrenados, mejora significativamente la capacidad de razonamiento matemático sin depender de entrenamiento en tiempo de prueba.

Peihao Wang, Shan Yang, Xijun Wang, Tesi Xiao, Xin Liu, Changlong Yu, Yu Lou, Pan Li, Zhangyang Wang, Ming Lin, René Vidal2026-03-11🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Este trabajo establece nuevos límites de generalización transductiva basados en transporte óptimo para la clasificación de nodos en grafos, demostrando que son computacionalmente eficientes, se correlacionan fuertemente con el rendimiento empírico y revelan cómo la profundidad de las GNN afecta la generalización mediante un equilibrio entre la concentración intraclase y la separación interclase.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo Kim2026-03-11🤖 cs.LG

DendroNN: Dendrocentric Neural Networks for Energy-Efficient Classification of Event-Based Data

El artículo presenta DendroNN, una red neuronal bioinspirada que utiliza mecanismos de detección de secuencias en dendritas y un proceso de reconfiguración sin gradientes para clasificar datos basados en eventos con alta eficiencia energética, superando a las arquitecturas neuromórficas actuales en tareas de series temporales.

Jann Krausse, Zhe Su, Kyrus Mama, Maryada, Klaus Knobloch, Giacomo Indiveri, Jürgen Becker2026-03-11🤖 cs.AI

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Este artículo establece nuevos límites de arrepentimiento para el muestreo de Thompson con procesos gaussianos (GP-TS), incluyendo una cota inferior, una cota superior para el segundo momento del arrepentimiento acumulado, límites de arrepentimiento "leniente" esperados y una cota superior mejorada para el horizonte temporal, cerrando así brechas analíticas existentes frente al método GP-UCB.

Shion Takeno, Shogo Iwazaki2026-03-11🤖 cs.LG

A Gaussian Comparison Theorem for Training Dynamics in Machine Learning

Este artículo presenta un teorema de comparación no asintótico basado en el teorema de Gordon para analizar la dinámica de entrenamiento de algoritmos de aprendizaje automático bajo modelos de mezcla gaussiana, demostrando la validez de las expresiones de campo medio dinámico en escenarios asintóticos y proponiendo un esquema de refinamiento iterativo para mejorar la precisión en dominios no asintóticos.

Ashkan Panahi2026-03-11🤖 cs.LG

Reward-Zero: Language Embedding Driven Implicit Reward Mechanisms for Reinforcement Learning

El artículo presenta Reward-Zero, un mecanismo de recompensa implícita general que utiliza incrustaciones de lenguaje para convertir descripciones de tareas en señales de progreso densas y semánticamente alineadas, acelerando la exploración y mejorando la generalización en el aprendizaje por refuerzo sin necesidad de ingeniería de recompensas específica.

Heng Zhang, Haddy Alchaer, Arash Ajoudani, Yu She2026-03-11🤖 cs.LG

Interactive 3D visualization of surface roughness predictions in additive manufacturing: A data-driven framework

Este artículo presenta un marco de trabajo basado en datos que combina un modelo de red neuronal con generación sintética de datos y una interfaz web interactiva para predecir y visualizar en 3D la rugosidad superficial en la fabricación aditiva por extrusión de material, permitiendo una planificación de procesos optimizada antes de la impresión.

Engin Deniz Erkan, Elif Surer, Ulas Yaman2026-03-11🤖 cs.LG

Democratising Clinical AI through Dataset Condensation for Classical Clinical Models

Este artículo presenta un marco de optimización de orden cero con privacidad diferencial que extiende la condensación de datos a modelos clínicos no diferenciables, permitiendo compartir conjuntos de datos sintéticos compactos que preservan la utilidad predictiva sin exponer información sensible de los pacientes.

Anshul Thakur, Soheila Molaei, Pafue Christy Nganjimi, Joshua Fieggen, Andrew A. S. Soltan, Danielle Belgrave, Lei Clifton, David A. Clifton2026-03-11🤖 cs.AI

From Representation to Clusters: A Contrastive Learning Approach for Attributed Hypergraph Clustering

El artículo presenta CAHC, un método de aprendizaje contrastivo de extremo a extremo para el agrupamiento de hipergrafos atribuidos que optimiza simultáneamente la representación de nodos y la asignación de clústeres mediante objetivos a nivel de nodo e hiperborde, superando a los métodos existentes en múltiples conjuntos de datos.

Li Ni, Shuaikang Zeng, Lin Mu, Longlong Lin2026-03-11🤖 cs.LG

SPAARS: Safer RL Policy Alignment through Abstract Exploration and Refined Exploitation of Action Space

SPAARS es un marco de aprendizaje curricular para el aprendizaje por refuerzo offline-a-online que mejora la seguridad y la eficiencia de las muestras al explorar inicialmente en un espacio latente de baja dimensión y luego transferir el control al espacio de acciones crudo, superando así las limitaciones de rendimiento de los métodos basados en decodificadores.

Swaminathan S K, Aritra Hazra2026-03-11🤖 cs.AI

Reviving ConvNeXt for Efficient Convolutional Diffusion Models

Este artículo presenta el modelo de difusión totalmente convolucional (FCDM), una arquitectura basada en ConvNeXt que demuestra ser una alternativa altamente eficiente y competitiva a los modelos basados en transformadores, logrando un rendimiento comparable con la mitad de las operaciones de punto flotante, menos pasos de entrenamiento y la capacidad de entrenarse en sistemas de solo 4 GPUs.

Taesung Kwon, Lorenzo Bianchi, Lennart Wittke, Felix Watine, Fabio Carrara, Jong Chul Ye, Romann Weber, Vinicius Azevedo2026-03-11🤖 cs.AI