X-MethaneWet: A Cross-scale Global Wetland Methane Emission Benchmark Dataset for Advancing Science Discovery with AI

Este trabajo presenta X-MethaneWet, el primer conjunto de datos de referencia global y multiescala que integra simulaciones físicas y observaciones reales para entrenar modelos de aprendizaje profundo y técnicas de aprendizaje por transferencia, con el objetivo de mejorar la precisión en la predicción de emisiones de metano de los humedales y acelerar el descubrimiento científico mediante inteligencia artificial.

Yiming Sun, Shuo Chen, Shengyu Chen, Chonghao Qiu, Licheng Liu, Youmi Oh, Sparkle L. Malone, Gavin McNicol, Qianlai Zhuang, Chris Smith, Yiqun Xie, Xiaowei Jia2026-03-10🤖 cs.LG

Stronger Enforcement of Instruction Hierarchy via Augmented Intermediate Representations

Este artículo presenta un nuevo enfoque que mejora la seguridad de los modelos de lenguaje frente a inyecciones de instrucciones al inyectar señales de jerarquía de instrucciones en las representaciones intermedias de la red mediante embebidos entrenables, logrando una reducción significativa en la tasa de éxito de los ataques sin comprometer la utilidad del modelo.

Sanjay Kariyappa, G. Edward Suh2026-03-10🤖 cs.LG

ViTaPEs: Visuotactile Position Encodings for Cross-Modal Alignment in Multimodal Transformers

El artículo presenta ViTaPEs, una arquitectura basada en transformadores que introduce un mecanismo de inyección posicional en dos etapas (local y global) para alinear eficazmente las modalidades visual y táctil, logrando un rendimiento superior en tareas de reconocimiento y generalización cero en escenarios no vistos sin depender de modelos preentrenados.

Fotios Lygerakis, Ozan Özdenizci, Elmar Rückert2026-03-10🤖 cs.LG

MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

Este trabajo presenta MMTU, un nuevo benchmark a gran escala con más de 28.000 preguntas sobre 25 tareas de tablas del mundo real diseñado para evaluar exhaustivamente las capacidades de comprensión, razonamiento y manipulación de datos estructurados en modelos de lenguaje, revelando que incluso los modelos más avanzados actuales tienen un margen significativo de mejora.

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

Leveraging chaotic transients in the training of artificial neural networks

Este artículo demuestra que utilizar tasas de aprendizaje excepcionalmente altas, que sitúan al entrenamiento de redes neuronales en un régimen transitorio caótico caracterizado por un equilibrio entre exploración y explotación, permite acelerar significativamente el tiempo de entrenamiento necesario para alcanzar una alta precisión en diversas arquitecturas y tareas de aprendizaje supervisado.

Pedro Jiménez-González, Miguel C. Soriano, Lucas Lacasa2026-03-10🤖 cs.LG

EROICA: Online Performance Troubleshooting for Large-scale Model Training

El artículo presenta EROICA, el primer sistema de resolución de problemas en línea que diagnostica con un 97,5% de éxito fallos de rendimiento en clusters de entrenamiento de modelos grandes de ~100.000 GPUs mediante perfilado en tiempo real y observabilidad diferencial, logrando una cobertura completa con impacto mínimo en la producción.

Yu Guan, Zhiyu Yin, Haoyu Chen, Sheng Cheng, Chaojie Yang, Kun Qian, Tianyin Xu, Pengcheng Zhang, Yang Zhang, Hanyu Zhao, Yong Li, Wei Lin, Dennis Cai, Ennan Zhai2026-03-10🤖 cs.LG

BemaGANv2: Discriminator Combination Strategies for GAN-based Vocoders in Long-Term Audio Generation

Este artículo presenta BemaGANv2, un vocador basado en GAN optimizado para la generación de audio de larga duración que introduce innovaciones arquitectónicas como el módulo AMP y el Discriminador de Sobres Multi-Envolvente (MED), evaluando sistemáticamente diversas estrategias de combinación de discriminadores para mejorar la coherencia temporal y la fidelidad del audio.

Taesoo Park, Mungwi Jeong, Mingyu Park, Narae Kim, Junyoung Kim, Mujung Kim, Jisang Yoo, Hoyun Lee, Sanghoon Kim, Soonchul Kwon2026-03-10🤖 cs.LG

Co-LoRA: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients

El artículo presenta Co-LoRA, un enfoque de aprendizaje federado personalizado que aborda la heterogeneidad tanto de datos como de modelos mediante una estrategia de agregación consciente de la relevancia de la tarea y un módulo adaptable a diferentes arquitecturas, validado en un nuevo benchmark multimodal que demuestra un rendimiento superior al estado del arte.

Minhyuk Seo, Taeheon Kim, Hankook Lee, Jonghyun Choi, Tinne Tuytelaars2026-03-10🤖 cs.LG

Efficient Algorithms for Logistic Contextual Slate Bandits with Bandit Feedback

Este trabajo presenta dos algoritmos eficientes, Slate-GLM-OFU y Slate-GLM-TS, para el problema de los banditos contextuales de láminas logísticas con retroalimentación de banda, los cuales logran un bajo arrepentimiento y una complejidad computacional lineal mediante la combinación de planificación local y aprendizaje global, demostrando su superioridad tanto en entornos sintéticos como en la selección de ejemplos para prompts de modelos de lenguaje.

Tanmay Goyal, Gaurav Sinha2026-03-10🤖 cs.LG

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

Este trabajo presenta SamS, un algoritmo eficiente que mejora el rendimiento de la Optimización Directa de Preferencias (DPO) al adaptar dinámicamente la selección de muestras en cada lote basándose en el estado evolutivo del modelo, logrando una mayor capacidad de generalización sin modificar el algoritmo central ni añadir una carga computacional significativa.

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG