NaviDriveVLM: Decoupling High-Level Reasoning and Motion Planning for Autonomous Driving

El artículo presenta NaviDriveVLM, un marco decoupled que separa el razonamiento de alto nivel de la planificación de movimiento mediante un Navegador a gran escala y un Controlador ligero, logrando una planificación de movimiento superior en el benchmark nuScenes al preservar la capacidad de razonamiento y reducir los costos de entrenamiento.

Ximeng Tao, Pardis Taghavi, Dimitar Filev, Reza Langari, Gaurav Pandey2026-03-10🤖 cs.LG

DyQ-VLA: Temporal-Dynamic-Aware Quantization for Embodied Vision-Language-Action Models

El artículo presenta DyQ-VLA, un marco de cuantización dinámica para modelos de Visión-Lenguaje-Acción que, al aprovechar la sensibilidad temporal y los indicadores cinemáticos en tiempo real, reduce la huella de memoria en un 69,1% y acelera la ejecución sin comprometer el rendimiento.

Zihao Zheng, Hangyu Cao, Sicheng Tian, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Zhaobo Zhang, Xuanzhe Liu, Donggang Cao, Hong Mei, Xiang Chen2026-03-10🤖 cs.LG

Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases

El artículo presenta Rel-MOSS, un nuevo enfoque de aprendizaje profundo relacional que aborda el problema del desequilibrio de clases en bases de datos relacionales mediante un controlador de puertas relacional y un sintetizador de minorías guiado por relaciones, logrando así un rendimiento superior en tareas de clasificación de entidades.

Jun Yin, Peng Huo, Bangguo Zhu, Hao Yan, Senzhang Wang, Shirui Pan, Chengqi Zhang2026-03-10🤖 cs.LG

Semantic Risk Scoring of Aggregated Metrics: An AI-Driven Approach for Healthcare Data Governance

Este artículo propone un marco de IA modular que utiliza análisis semántico y sintáctico de consultas SQL para asignar puntuaciones de riesgo a métricas agregadas en el sector salud, permitiendo la detección proactiva de violaciones de privacidad y facilitando el intercambio seguro de datos entre equipos empresariales sin acceder a información sensible.

Mohammed Omer Shakeel Ahmed2026-03-10🤖 cs.LG

ELLMob: Event-Driven Human Mobility Generation with Self-Aligned LLM Framework

Este trabajo presenta ELLMob, un marco de lenguaje grande autoalineado que genera trayectorias humanas plausibles durante grandes eventos sociales al resolver la competencia entre patrones habituales y restricciones de eventos mediante la Teoría de la Trazas Difusas, superando a los métodos actuales y utilizando el primer conjunto de datos anotado con eventos.

Yusong Wang, Chuang Yang, Jiawei Wang, Xiaohang Xu, Jiayi Xu, Dongyuan Li, Chuan Xiao, Renhe Jiang2026-03-10🤖 cs.LG

Scaling Machine Learning Interatomic Potentials with Mixtures of Experts

Este trabajo presenta arquitecturas de Mezcla de Expertos (MoE) y Mezcla de Expertos Lineales (MoLE) para Potenciales Interatómicos de Aprendizaje Automático que, mediante activación dispersa y enrutamiento por elemento, logran un rendimiento superior y una especialización química interpretable, estableciendo nuevos estándares de precisión en múltiples benchmarks.

Yuzhi Liu, Duo Zhang, Anyang Peng, Weinan E, Linfeng Zhang, Han Wang2026-03-10🤖 cs.LG

\$OneMillion-Bench: How Far are Language Agents from Human Experts?

El paper introduce \$OneMillion-Bench, un nuevo conjunto de 400 tareas curadas por expertos en cinco dominios profesionales que evalúa la fiabilidad y profundidad de los agentes de lenguaje en escenarios reales de alto impacto económico, superando las limitaciones de las pruebas actuales mediante una evaluación basada en criterios rigurosos de precisión factual, coherencia lógica y cumplimiento profesional.

Qianyu Yang, Yang Liu, Jiaqi Li, Jun Bai, Hao Chen, Kaiyuan Chen, Tiliang Duan, Jiayun Dong, Xiaobo Hu, Zixia Jia, Yang Liu, Tao Peng, Yixin Ren, Ran Tian, Zaiyuan Wang, Yanglihong Xiao, Gang Yao, Lingyue Yin, Ge Zhang, Chun Zhang, Jianpeng Jiao, Zilong Zheng, Yuan Gong2026-03-10🤖 cs.LG

MJ1: Multimodal Judgment via Grounded Verification

El artículo presenta MJ1, un juez multimodal de 3B parámetros entrenado con aprendizaje por refuerzo que utiliza una cadena de verificación fundamentada y una recompensa de consistencia contrafactual para lograr una precisión superior a modelos mucho más grandes en la evaluación de razonamiento y edición de imágenes, demostrando que la verificación fundamentada mejora significativamente el juicio multimodal sin aumentar la escala del modelo.

Bhavesh Kumar, Dylan Feng, Leonard Tang2026-03-10🤖 cs.LG

SmartThinker: Progressive Chain-of-Thought Length Calibration for Efficient Large Language Model Reasoning

SmartThinker es un nuevo método basado en GRPO que calibra progresivamente la longitud del razonamiento en cadena de pensamiento mediante la estimación dinámica de la longitud óptima y la modulación de la recompensa, logrando una compresión significativa de la longitud de respuesta sin sacrificar, e incluso mejorando, la precisión en tareas complejas.

Chenzhi Hu, Qinzhe Hu, Yuhang Xu, Junyi Chen, Ruijie Wang, Shengzhong Liu, Jianxin Li, Fan Wu, Guihai Chen2026-03-10🤖 cs.LG

Amortizing Maximum Inner Product Search with Learned Support Functions

Este artículo propone un enfoque de búsqueda de producto interno máximo (MIPS) amortizado que utiliza redes neuronales, específicamente SupportNet y KeyNet, para predecir directamente los vectores óptimos aprovechando las propiedades matemáticas de las funciones de soporte, lo que reduce significativamente los costos computacionales para distribuciones de consultas fijas.

Theo X. Olausson, João Monteiro, Michal Klein, Marco Cuturi2026-03-10🤖 cs.LG

FedMomentum: Preserving LoRA Training Momentum in Federated Fine-Tuning

El artículo propone FedMomentum, un marco novedoso que preserva el impulso de entrenamiento en el ajuste fino federado de modelos de lenguaje mediante la agregación estructurada de adaptaciones LoRA utilizando descomposición de valores singulares (SVD), superando así las limitaciones de ruido y expresividad estructural de los métodos existentes para lograr una convergencia más rápida y un rendimiento superior.

Peishen Yan, Yang Hua, Hao Wang, Jiaru Zhang, Xiaoyu Wu, Tao Song, Haibing Guan2026-03-10🤖 cs.LG

GCGNet: Graph-Consistent Generative Network for Time Series Forecasting with Exogenous Variables

El artículo presenta GCGNet, una red generativa basada en grafos que mejora la predicción de series temporales con variables exógenas al modelar conjuntamente las correlaciones temporales y de canal mediante un generador variacional, un alineador de estructura de grafos y un refinador, logrando así mayor robustez ante el ruido y superando a los métodos actuales en múltiples conjuntos de datos reales.

Zhengyu Li, Xiangfei Qiu, Yuhan Zhu, Xingjian Wu, Jilin Hu, Chenjuan Guo, Bin Yang2026-03-10🤖 cs.LG

CDRRM: Contrast-Driven Rubric Generation for Reliable and Interpretable Reward Modeling

El artículo presenta CDRRM, un marco de modelado de recompensas que genera rúbricas interpretables mediante un paradigma de contraste y síntesis para superar los sesgos y la dependencia de anotaciones costosas, logrando un rendimiento superior con alta eficiencia de datos.

Dengcan Liu, Fengkai Yang, Xiaohan Wang, Shurui Yan, Jiajun Chai, Jiahao Li, Yikun Ban, Zhendong Mao, Wei Lin, Guojun Yin2026-03-10🤖 cs.LG

Stabilized Fine-Tuning with LoRA in Federated Learning: Mitigating the Side Effect of Client Size and Rank via the Scaling Factor

El artículo presenta SFed-LoRA, un marco de aprendizaje federado que introduce un factor de escala óptimo para mitigar la inestabilidad y el colapso de gradientes en la adaptación de bajo rango (LoRA) causados por la agregación de múltiples clientes, permitiendo así una adaptación de rango alto estable y eficiente sin alterar la arquitectura del modelo.

Jiayu Huang, Xiaohu Wu, Tiantian He, Qicheng Lao2026-03-10🤖 cs.LG