You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

El estudio demuestra que los modelos de lenguaje pueden adquirir subliminalmente preferencias de un modelo generador a través de parafraseos fieles, incluso cuando el contenido semántico es irrelevante o contradice explícitamente dicha preferencia, lo que revela una vulnerabilidad crítica en los pipelines de entrenamiento con datos sintéticos que no puede detectarse mediante inspección de contenido.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Efficiently Aligning Draft Models via Parameter- and Data-Efficient Adaptation

El artículo presenta EDA, un marco eficiente en parámetros y datos que restaura el rendimiento de la decodificación especulativa en modelos de lenguaje ajustados mediante una arquitectura desacoplada, una estrategia de regeneración de datos y un mecanismo de selección de muestras, logrando así una adaptación rápida y de bajo costo sin necesidad de reentrenamiento completo.

Luxi Lin, Zhihang Lin, Zhanpeng Zeng, Yuhao Chen, Qingyu Zhang, Jixiang Luo, Xuelong Li, Rongrong Ji2026-03-11🤖 cs.AI

Learning Bayesian and Markov Networks with an Unreliable Oracle

Este estudio analiza el aprendizaje de la estructura de redes de Markov y bayesianas mediante un oráculo de independencia condicional no fiable, demostrando que las redes de Markov pueden identificarse incluso con un número moderadamente exponencial de errores bajo ciertas condiciones de conectividad, mientras que las redes bayesianas no toleran ningún error para una identificación garantizada, y propone algoritmos para los casos en que la estructura es identificable.

Juha Harviainen, Pekka Parviainen, Vidya Sagar Sharma2026-03-11🤖 cs.LG

An Optimal Control Approach To Transformer Training

Este artículo propone un enfoque de control óptimo riguroso para el entrenamiento de Transformers, modelando la arquitectura como un sistema de partículas controlado que se transforma en un proceso de decisión de Markov sobre medidas de probabilidad, lo que permite demostrar la existencia de políticas óptimas globales y ofrecer una alternativa robusta a los métodos basados en gradientes sin requerir suavidad ni convexidad.

Ka\u{g}an Akman, Naci Saldı, Serdar Yüksel2026-03-11🤖 cs.LG

SCDP: Learning Humanoid Locomotion from Partial Observations via Mixed-Observation Distillation

El artículo presenta SCDP, un enfoque que utiliza modelos de difusión y entrenamiento con observaciones mixtas para aprender locomoción de humanoides exclusivamente a partir de sensores a bordo, eliminando la necesidad de estimación de estado explícita y logrando un rendimiento robusto tanto en simulación como en un robot real.

Milo Carroll, Tianhu Peng, Lingfan Bao, Chengxu Zhou, Zhibin Li2026-03-11🤖 cs.LG

Towards Understanding Adam Convergence on Highly Degenerate Polynomials

Este trabajo demuestra teórica y experimentalmente que el algoritmo Adam converge automáticamente y de forma lineal en polinomios altamente degenerados gracias a un mecanismo de desacoplamiento que amplifica la tasa de aprendizaje, superando así a los métodos tradicionales como el descenso de gradiente y el momentum en este tipo de funciones.

Zhiwei Bai, Jiajie Zhao, Zhangchen Zhou, Zhi-Qin John Xu, Yaoyu Zhang2026-03-11🤖 cs.LG

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Este artículo presenta un marco unificado para la factorización de matrices no negativas tradicional y convexa bajo modelos de Tweedie y Binomial Negativa, derivando reglas de actualización multiplicativa mediante algoritmos MM y demostrando mediante evaluaciones empíricas que la elección del modelo de ruido y el enfoque convexo mejoran significativamente el ajuste y la recuperación de características en datos complejos.

Elisabeth Sommer James, Asger Hobolth, Marta Pelizzola2026-03-11🤖 cs.LG

Learning the Hierarchical Organization in Brain Network for Brain Disorder Diagnosis

El artículo presenta BrainHO, un nuevo enfoque que aprende la organización jerárquica intrínseca de las redes cerebrales a partir de datos de fMRI mediante un mecanismo de atención jerárquica y restricciones de consistencia, logrando un rendimiento superior en el diagnóstico de trastornos cerebrales y la identificación de biomarcadores interpretables sin depender de subredes predefinidas.

Jingfeng Tang, Peng Cao, Guangqi Wen, Jinzhu Yang, Xiaoli Liu, Osmar R. Zaiane2026-03-11🤖 cs.LG

Multi-DNN Inference of Sparse Models on Edge SoCs

El artículo presenta SparseLoom, un sistema demostrador que utiliza la técnica de "model stitching" para reensamblar subgrafos de modelos dispersos sin reentrenamiento, logrando en SoCs de borde una reducción de hasta el 74% en las violaciones de objetivos de nivel de servicio, un aumento de 2,31 veces en el rendimiento y una disminución del 28% en la sobrecarga de memoria en comparación con los sistemas existentes.

Jiawei Luo, Di Wu, Simon Dobson, Blesson Varghese2026-03-11🤖 cs.LG

Well Log-Guided Synthesis of Subsurface Images from Sparse Petrography Data Using cGANs

Este artículo presenta un marco de redes generativas adversarias condicionales (cGAN) que utiliza datos de pozos para sintetizar imágenes realistas de secciones delgadas de rocas carbonatadas a partir de datos petrográficos dispersos, permitiendo una visualización continua de la porosidad del subsuelo para mejorar la caracterización de yacimientos y aplicaciones de transición energética.

Ali Sadeghkhani, A. Assadi, B. Bennett, A. Rabbani2026-03-11🤖 cs.LG

No evaluation without fair representation : Impact of label and selection bias on the evaluation, performance and mitigation of classification models

Este trabajo presenta un marco para introducir sesgos controlados en conjuntos de datos reales y demuestra empíricamente cómo el sesgo de selección y el de etiqueta afectan la evaluación y la mitigación de modelos de clasificación, revelando que la ausencia de sesgo en el conjunto de prueba elimina la aparente compensación entre equidad y precisión.

Magali Legast, Toon Calders, François Fouss2026-03-11🤖 cs.LG

GNNs for Time Series Anomaly Detection: An Open-Source Framework and a Critical Evaluation

Este trabajo presenta un marco de código abierto para la detección de anomalías en series temporales mediante redes neuronales gráficas (GNN), que no solo demuestra mejoras en el rendimiento y la interpretabilidad, sino que también ofrece una evaluación crítica de las prácticas actuales de métricas y umbrales en el campo.

Federico Bello, Gonzalo Chiarlone, Marcelo Fiori, Gastón García González, Federico Larroca2026-03-11🤖 cs.AI