Hospitality-VQA: Decision-Oriented Informativeness Evaluation for Vision-Language Models

Este trabajo introduce un nuevo marco de "informatividad" y un conjunto de datos específico para evaluar la capacidad de los Modelos Visuales-Lingüísticos (VLM) en el sector hotelero, revelando que, aunque estos modelos carecen de conciencia decisional inherente, pueden adquirir un razonamiento fiable tras un ajuste fino modesto.

Jeongwoo Lee, Baek Duhyeong, Eungyeol Han, Soyeon Shin, Gukin han, Seungduk Kim, Jaehyun Jeon, Taewoo Jeong2026-03-10🤖 cs.LG

Reject, Resample, Repeat: Understanding Parallel Reasoning in Language Model Inference

Este artículo introduce un marco teórico basado en el filtrado de partículas para analizar rigurosamente los métodos de inferencia paralela en modelos de lenguaje, identificando garantías no asintóticas, mejoras algorítmicas y límites fundamentales, aunque sus hallazgos empíricos sugieren que la precisión final depende de factores más allá del error de muestreo.

Noah Golowich, Fan Chen, Dhruv Rohatgi, Raghav Singhal, Carles Domingo-Enrich, Dylan J. Foster, Akshay Krishnamurthy2026-03-10🤖 cs.LG

Designing probabilistic AI monsoon forecasts to inform agricultural decision-making

Los autores presentan un marco de teoría de decisiones y un sistema de pronóstico híbrido que combina modelos de inteligencia artificial con expectativas agrícolas evolutivas para generar pronósticos probabilísticos del monzón más precisos, los cuales fueron implementados exitosamente en 2025 para guiar las decisiones de 38 millones de agricultores indios.

Colin Aitken, Rajat Masiwal, Adam Marchakitus, Katherine Kowal, Mayank Gupta, Tyler Yang, Amir Jina, Pedram Hassanzadeh, William R. Boos, Michael Kremer2026-03-10🤖 cs.LG

LeJOT-AutoML: LLM-Driven Feature Engineering for Job Execution Time Prediction in Databricks Cost Optimization

El artículo presenta LeJOT-AutoML, un marco de AutoML impulsado por agentes de modelos de lenguaje que automatiza la ingeniería de características mediante la extracción de datos de logs y metadatos para predecir con precisión los tiempos de ejecución en Databricks, reduciendo el ciclo de desarrollo de semanas a minutos y logrando un ahorro de costos del 19,01% mediante una optimización mejorada de la orquestación.

Lizhi Ma, Yi-Xiang Hu, Yihui Ren, Feng Wu, Xiang-Yang Li2026-03-10🤖 cs.LG

Revisiting Unknowns: Towards Effective and Efficient Open-Set Active Learning

El artículo presenta E²OAL, un marco unificado y sin detectores para el aprendizaje activo de conjunto abierto que aprovecha las clases desconocidas etiquetadas mediante agrupamiento estructurado y calibración dirichlet para lograr un rendimiento superior en precisión, eficiencia y selección de muestras en comparación con los métodos actuales.

Chen-Chen Zong, Yu-Qi Chi, Xie-Yang Wang, Yan Cui, Sheng-Jun Huang2026-03-10🤖 cs.LG

NaviDriveVLM: Decoupling High-Level Reasoning and Motion Planning for Autonomous Driving

El artículo presenta NaviDriveVLM, un marco decoupled que separa el razonamiento de alto nivel de la planificación de movimiento mediante un Navegador a gran escala y un Controlador ligero, logrando una planificación de movimiento superior en el benchmark nuScenes al preservar la capacidad de razonamiento y reducir los costos de entrenamiento.

Ximeng Tao, Pardis Taghavi, Dimitar Filev, Reza Langari, Gaurav Pandey2026-03-10🤖 cs.LG

DyQ-VLA: Temporal-Dynamic-Aware Quantization for Embodied Vision-Language-Action Models

El artículo presenta DyQ-VLA, un marco de cuantización dinámica para modelos de Visión-Lenguaje-Acción que, al aprovechar la sensibilidad temporal y los indicadores cinemáticos en tiempo real, reduce la huella de memoria en un 69,1% y acelera la ejecución sin comprometer el rendimiento.

Zihao Zheng, Hangyu Cao, Sicheng Tian, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Zhaobo Zhang, Xuanzhe Liu, Donggang Cao, Hong Mei, Xiang Chen2026-03-10🤖 cs.LG

Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases

El artículo presenta Rel-MOSS, un nuevo enfoque de aprendizaje profundo relacional que aborda el problema del desequilibrio de clases en bases de datos relacionales mediante un controlador de puertas relacional y un sintetizador de minorías guiado por relaciones, logrando así un rendimiento superior en tareas de clasificación de entidades.

Jun Yin, Peng Huo, Bangguo Zhu, Hao Yan, Senzhang Wang, Shirui Pan, Chengqi Zhang2026-03-10🤖 cs.LG

Semantic Risk Scoring of Aggregated Metrics: An AI-Driven Approach for Healthcare Data Governance

Este artículo propone un marco de IA modular que utiliza análisis semántico y sintáctico de consultas SQL para asignar puntuaciones de riesgo a métricas agregadas en el sector salud, permitiendo la detección proactiva de violaciones de privacidad y facilitando el intercambio seguro de datos entre equipos empresariales sin acceder a información sensible.

Mohammed Omer Shakeel Ahmed2026-03-10🤖 cs.LG

ELLMob: Event-Driven Human Mobility Generation with Self-Aligned LLM Framework

Este trabajo presenta ELLMob, un marco de lenguaje grande autoalineado que genera trayectorias humanas plausibles durante grandes eventos sociales al resolver la competencia entre patrones habituales y restricciones de eventos mediante la Teoría de la Trazas Difusas, superando a los métodos actuales y utilizando el primer conjunto de datos anotado con eventos.

Yusong Wang, Chuang Yang, Jiawei Wang, Xiaohang Xu, Jiayi Xu, Dongyuan Li, Chuan Xiao, Renhe Jiang2026-03-10🤖 cs.LG

Scaling Machine Learning Interatomic Potentials with Mixtures of Experts

Este trabajo presenta arquitecturas de Mezcla de Expertos (MoE) y Mezcla de Expertos Lineales (MoLE) para Potenciales Interatómicos de Aprendizaje Automático que, mediante activación dispersa y enrutamiento por elemento, logran un rendimiento superior y una especialización química interpretable, estableciendo nuevos estándares de precisión en múltiples benchmarks.

Yuzhi Liu, Duo Zhang, Anyang Peng, Weinan E, Linfeng Zhang, Han Wang2026-03-10🤖 cs.LG

\$OneMillion-Bench: How Far are Language Agents from Human Experts?

El paper introduce \$OneMillion-Bench, un nuevo conjunto de 400 tareas curadas por expertos en cinco dominios profesionales que evalúa la fiabilidad y profundidad de los agentes de lenguaje en escenarios reales de alto impacto económico, superando las limitaciones de las pruebas actuales mediante una evaluación basada en criterios rigurosos de precisión factual, coherencia lógica y cumplimiento profesional.

Qianyu Yang, Yang Liu, Jiaqi Li, Jun Bai, Hao Chen, Kaiyuan Chen, Tiliang Duan, Jiayun Dong, Xiaobo Hu, Zixia Jia, Yang Liu, Tao Peng, Yixin Ren, Ran Tian, Zaiyuan Wang, Yanglihong Xiao, Gang Yao, Lingyue Yin, Ge Zhang, Chun Zhang, Jianpeng Jiao, Zilong Zheng, Yuan Gong2026-03-10🤖 cs.LG