Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression

Este artículo establece un marco teórico que caracteriza la convergencia y la precisión estadística del algoritmo de Esperanza-Maximización en regresiones lineales mixtas sobreespecificadas, demostrando que el equilibrio inicial de los pesos de mezcla determina si la convergencia es lineal o sublineal y si la precisión estadística es de orden O((d/n)1/2)O((d/n)^{1/2}) u O((d/n)1/4)O((d/n)^{1/4}).

Zhankun Luo, Abolfazl Hashemi2026-03-09🤖 cs.LG

One Model for All Tasks: Leveraging Efficient World Models in Multi-Task Planning

El artículo presenta ScaleZero, un modelo único para la planificación multi-tarea que combina una arquitectura de Mezcla de Expertos (MoE) para resolver conflictos de gradientes y una estrategia de Escalamiento Dinámico de Parámetros (DPS) para optimizar la capacidad del modelo, logrando un rendimiento comparable al de agentes especializados con una menor cantidad de interacciones con el entorno.

Yuan Pu, Yazhe Niu, Jia Tang, Junyu Xiong, Shuai Hu, Hongsheng Li2026-03-09🤖 cs.LG

Reasoned Safety Alignment: Ensuring Jailbreak Defense via Answer-Then-Check

Este artículo presenta un nuevo enfoque de alineación de seguridad llamado "Answer-Then-Check", respaldado por el conjunto de datos ReSA, que entrena a los modelos de lenguaje para razonar y evaluar críticamente la seguridad de sus respuestas antes de generarlas, logrando así una mayor robustez ante ataques de jailbreak sin comprometer sus capacidades generales ni aumentar las rechazos innecesarios.

Chentao Cao, Xiaojun Xu, Bo Han, Hang Li2026-03-09🤖 cs.AI

VEGA: Electric Vehicle Navigation Agent via Physics-Informed Neural Operator and Proximal Policy Optimization

VEGA es un sistema de navegación para vehículos eléctricos que combina un operador neuronal informado por física para estimar parámetros del vehículo y una optimización de política proximal para planificar rutas y paradas de carga, logrando una planificación eficiente y rápida que generaliza a diferentes redes viales internacionales.

Hansol Lim, Minhyeok Im, Jonathan Boyack, Jee Won Lee, Jongseong Brad Choi2026-03-09🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

Este artículo presenta la Expansión Atómica de Tensores (TACE), un modelo de aprendizaje automático que unifica la representación escalar y tensorial en el espacio cartesiano mediante tensores cartesianos irreducibles, eliminando la complejidad de los acoplamientos de momento angular y permitiendo el aprendizaje eficiente y universal de propiedades invariantes y equivariantes en diversos sistemas atómicos.

Zemin Xu, Wenbo Xie, P. Hu2026-03-09🔬 cond-mat.mtrl-sci

C^2Prompt: Class-aware Client Knowledge Interaction for Federated Continual Learning

El artículo propone C²Prompt, un nuevo método para el aprendizaje continuo federado que mejora el rendimiento al abordar la coherencia del conocimiento a nivel de clase mediante un mecanismo de compensación de distribución local y un esquema de agregación de prompts consciente de la clase, logrando así resultados de vanguardia en múltiples benchmarks.

Kunlun Xu, Yibo Feng, Jiangmeng Li, Yongsheng Qi, Jiahuan Zhou2026-03-09🤖 cs.LG

Auto-Regressive U-Net for Full-Field Prediction of Shrinkage-Induced Damage in Concrete

Este artículo presenta un enfoque de aprendizaje profundo basado en una arquitectura dual de U-Net auto-regresiva y redes neuronales convolucionales que predice de manera eficiente la evolución del daño por contracción en el hormigón y sus propiedades mecánicas, permitiendo optimizar los diseños de mezcla para mejorar la durabilidad.

Liya Gaynutdinova, Petr Havlásek, Ondřej Rokoš, Fleur Hendriks, Martin Doškář2026-03-09🤖 cs.LG

Planner Aware Path Learning in Diffusion Language Models Training

Este artículo presenta el método de Aprendizaje de Trayectorias Consciente del Planificador (PAPL), que resuelve la discrepancia entre el entrenamiento y la inferencia en modelos de difusión de lenguaje mediante la derivación de una nueva cota inferior de verosimilitud (P-ELBO) que integra dinámicas de planificación, logrando mejoras significativas en la generación de proteínas, texto y código.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

El artículo presenta DAV, un marco que formula la alineación de modelos de difusión como un proceso variacional de Expectación-Máxima para optimizar recompensas y preservar la diversidad mediante la alternancia entre la generación de muestras en tiempo de prueba y el refinamiento del modelo.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG

Online Minimization of Polarization and Disagreement via Low-Rank Matrix Bandits

Este artículo propone un algoritmo de dos etapas basado en bandas de matrices de bajo rango para minimizar la polarización y el desacuerdo en el modelo de dinámica de opiniones de Friedkin-Johnsen en un entorno en línea donde las opiniones innatas son desconocidas, logrando un arrepentimiento acumulado sublineal y superando significativamente a las líneas base existentes.

Federico Cinus, Yuko Kuroki, Atsushi Miyauchi, Francesco Bonchi2026-03-09🤖 cs.LG

Self-Speculative Masked Diffusions

El artículo presenta las "Self-Speculative Masked Diffusions", un nuevo modelo de difusión enmascarada para datos discretos que reduce a la mitad las evaluaciones de red neuronal necesarias para generar muestras de alta calidad en tareas como modelado de texto y secuencias de proteínas, mediante la implementación de un mecanismo de muestreo especulativo integrado que permite predicciones no factorizadas en una sola pasada.

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud Doucet2026-03-09🤖 cs.LG

Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Este artículo demuestra que, aunque los modelos de lenguaje decodificador-only son inferiores a los codificador-only para la adaptación a ecuaciones diferenciales parciales, se puede cerrar esta brecha de rendimiento mediante dos nuevas técnicas que imitan la bidireccionalidad: "Parallel Flipping" y "Sequence Doubling".

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG

How Reliable is Language Model Micro-Benchmarking?

Este estudio demuestra que los micro-benchmarks actuales a menudo no logran clasificar modelos de lenguaje de manera fiable, especialmente cuando sus diferencias de rendimiento son pequeñas, y revela que se requieren cientos de ejemplos para lograr una consistencia comparable a la de las evaluaciones completas, lo que hace que el muestreo aleatorio sea una alternativa competitiva.

Gregory Yauney, Shahzaib Saqib Warraich, Swabha Swayamdipta2026-03-09🤖 cs.LG

Escaping Model Collapse via Synthetic Data Verification: Near-term Improvements and Long-term Convergence

Este artículo demuestra teórica y empíricamente que inyectar información mediante un verificador externo de datos sintéticos (humano o modelo superior) previene el colapso del modelo durante el reentrenamiento iterativo, logrando mejoras a corto plazo que convergen a largo plazo hacia el "centro de conocimiento" del verificador.

Bingji Yi, Qiyuan Liu, Yuwei Cheng, Haifeng Xu2026-03-09🤖 cs.LG