Reward-Zero: Language Embedding Driven Implicit Reward Mechanisms for Reinforcement Learning

El artículo presenta Reward-Zero, un mecanismo de recompensa implícita general que utiliza incrustaciones de lenguaje para convertir descripciones de tareas en señales de progreso densas y semánticamente alineadas, acelerando la exploración y mejorando la generalización en el aprendizaje por refuerzo sin necesidad de ingeniería de recompensas específica.

Heng Zhang, Haddy Alchaer, Arash Ajoudani, Yu She2026-03-11🤖 cs.LG

Interactive 3D visualization of surface roughness predictions in additive manufacturing: A data-driven framework

Este artículo presenta un marco de trabajo basado en datos que combina un modelo de red neuronal con generación sintética de datos y una interfaz web interactiva para predecir y visualizar en 3D la rugosidad superficial en la fabricación aditiva por extrusión de material, permitiendo una planificación de procesos optimizada antes de la impresión.

Engin Deniz Erkan, Elif Surer, Ulas Yaman2026-03-11🤖 cs.LG

Democratising Clinical AI through Dataset Condensation for Classical Clinical Models

Este artículo presenta un marco de optimización de orden cero con privacidad diferencial que extiende la condensación de datos a modelos clínicos no diferenciables, permitiendo compartir conjuntos de datos sintéticos compactos que preservan la utilidad predictiva sin exponer información sensible de los pacientes.

Anshul Thakur, Soheila Molaei, Pafue Christy Nganjimi, Joshua Fieggen, Andrew A. S. Soltan, Danielle Belgrave, Lei Clifton, David A. Clifton2026-03-11🤖 cs.AI

From Representation to Clusters: A Contrastive Learning Approach for Attributed Hypergraph Clustering

El artículo presenta CAHC, un método de aprendizaje contrastivo de extremo a extremo para el agrupamiento de hipergrafos atribuidos que optimiza simultáneamente la representación de nodos y la asignación de clústeres mediante objetivos a nivel de nodo e hiperborde, superando a los métodos existentes en múltiples conjuntos de datos.

Li Ni, Shuaikang Zeng, Lin Mu, Longlong Lin2026-03-11🤖 cs.LG

SPAARS: Safer RL Policy Alignment through Abstract Exploration and Refined Exploitation of Action Space

SPAARS es un marco de aprendizaje curricular para el aprendizaje por refuerzo offline-a-online que mejora la seguridad y la eficiencia de las muestras al explorar inicialmente en un espacio latente de baja dimensión y luego transferir el control al espacio de acciones crudo, superando así las limitaciones de rendimiento de los métodos basados en decodificadores.

Swaminathan S K, Aritra Hazra2026-03-11🤖 cs.AI

Reviving ConvNeXt for Efficient Convolutional Diffusion Models

Este artículo presenta el modelo de difusión totalmente convolucional (FCDM), una arquitectura basada en ConvNeXt que demuestra ser una alternativa altamente eficiente y competitiva a los modelos basados en transformadores, logrando un rendimiento comparable con la mitad de las operaciones de punto flotante, menos pasos de entrenamiento y la capacidad de entrenarse en sistemas de solo 4 GPUs.

Taesung Kwon, Lorenzo Bianchi, Lennart Wittke, Felix Watine, Fabio Carrara, Jong Chul Ye, Romann Weber, Vinicius Azevedo2026-03-11🤖 cs.AI

Variational Routing: A Scalable Bayesian Framework for Calibrated Mixture-of-Experts Transformers

El artículo presenta VMoER, un enfoque bayesiano escalable que integra la cuantificación de incertidumbre en las capas de Mezcla de Expertos (MoE) de los modelos fundacionales mediante la inferencia variacional en la etapa de enrutamiento, logrando una mejora significativa en la estabilidad, calibración y detección de datos fuera de distribución con un costo computacional marginal.

Albus Yizhuo Li, Matthew Wicker2026-03-11🤖 cs.AI

TrainDeeploy: Hardware-Accelerated Parameter-Efficient Fine-Tuning of Small Transformer Models at the Extreme Edge

El artículo presenta TrainDeeploy, un marco que habilita la primera canalización completa de entrenamiento y ajuste fino en el dispositivo para modelos Transformer y CNN en chips de ultra bajo consumo, logrando una adaptación eficiente en el extremo mediante estrategias como LoRA que reducen significativamente el uso de memoria y el volumen de transferencia de datos.

Run Wang, Victor J. B. Jung, Philip Wiese, Francesco Conti, Alessio Burrello, Luca Benini2026-03-11🤖 cs.LG

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

El estudio demuestra que los modelos de lenguaje pueden adquirir subliminalmente preferencias de un modelo generador a través de parafraseos fieles, incluso cuando el contenido semántico es irrelevante o contradice explícitamente dicha preferencia, lo que revela una vulnerabilidad crítica en los pipelines de entrenamiento con datos sintéticos que no puede detectarse mediante inspección de contenido.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Efficiently Aligning Draft Models via Parameter- and Data-Efficient Adaptation

El artículo presenta EDA, un marco eficiente en parámetros y datos que restaura el rendimiento de la decodificación especulativa en modelos de lenguaje ajustados mediante una arquitectura desacoplada, una estrategia de regeneración de datos y un mecanismo de selección de muestras, logrando así una adaptación rápida y de bajo costo sin necesidad de reentrenamiento completo.

Luxi Lin, Zhihang Lin, Zhanpeng Zeng, Yuhao Chen, Qingyu Zhang, Jixiang Luo, Xuelong Li, Rongrong Ji2026-03-11🤖 cs.AI

Learning Bayesian and Markov Networks with an Unreliable Oracle

Este estudio analiza el aprendizaje de la estructura de redes de Markov y bayesianas mediante un oráculo de independencia condicional no fiable, demostrando que las redes de Markov pueden identificarse incluso con un número moderadamente exponencial de errores bajo ciertas condiciones de conectividad, mientras que las redes bayesianas no toleran ningún error para una identificación garantizada, y propone algoritmos para los casos en que la estructura es identificable.

Juha Harviainen, Pekka Parviainen, Vidya Sagar Sharma2026-03-11🤖 cs.LG