Stronger Enforcement of Instruction Hierarchy via Augmented Intermediate Representations

Este artículo presenta un nuevo enfoque que mejora la seguridad de los modelos de lenguaje frente a inyecciones de instrucciones al inyectar señales de jerarquía de instrucciones en las representaciones intermedias de la red mediante embebidos entrenables, logrando una reducción significativa en la tasa de éxito de los ataques sin comprometer la utilidad del modelo.

Sanjay Kariyappa, G. Edward Suh2026-03-10🤖 cs.LG

Representing local protein environments with machine learning force fields

Este trabajo propone una nueva representación de entornos proteicos locales derivada de modelos fundamentales atómicos que captura eficazmente tanto la estructura como las características químicas, permitiendo la construcción de predictores de desplazamiento químico con precisión de vanguardia y abriendo nuevas vías para el modelado de proteínas.

Meital Bojan, Sanketh Vedula, Advaith Maddipatla, Nadav Bojan Sellam, Anar Rzayev, Federico Napoli, Paul Schanda, Alex M. Bronstein2026-03-10💻 cs

MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

Este trabajo presenta MMTU, un nuevo benchmark a gran escala con más de 28.000 preguntas sobre 25 tareas de tablas del mundo real diseñado para evaluar exhaustivamente las capacidades de comprensión, razonamiento y manipulación de datos estructurados en modelos de lenguaje, revelando que incluso los modelos más avanzados actuales tienen un margen significativo de mejora.

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish2026-03-10🤖 cs.LG

BemaGANv2: Discriminator Combination Strategies for GAN-based Vocoders in Long-Term Audio Generation

Este artículo presenta BemaGANv2, un vocador basado en GAN optimizado para la generación de audio de larga duración que introduce innovaciones arquitectónicas como el módulo AMP y el Discriminador de Sobres Multi-Envolvente (MED), evaluando sistemáticamente diversas estrategias de combinación de discriminadores para mejorar la coherencia temporal y la fidelidad del audio.

Taesoo Park, Mungwi Jeong, Mingyu Park, Narae Kim, Junyoung Kim, Mujung Kim, Jisang Yoo, Hoyun Lee, Sanghoon Kim, Soonchul Kwon2026-03-10🤖 cs.LG

Co-LoRA: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients

El artículo presenta Co-LoRA, un enfoque de aprendizaje federado personalizado que aborda la heterogeneidad tanto de datos como de modelos mediante una estrategia de agregación consciente de la relevancia de la tarea y un módulo adaptable a diferentes arquitecturas, validado en un nuevo benchmark multimodal que demuestra un rendimiento superior al estado del arte.

Minhyuk Seo, Taeheon Kim, Hankook Lee, Jonghyun Choi, Tinne Tuytelaars2026-03-10🤖 cs.LG

Context Matters! Relaxing Goals with LLMs for Feasible 3D Scene Planning

El marco ContextMatters mejora la planificación de agentes encarnados en entornos 3D complejos al fusionar modelos de lenguaje grandes con planificación clásica para relajar jerárquicamente los objetivos y adaptar las metas al contexto, logrando una tasa de éxito un 52,45% superior a las soluciones existentes y validándose en un robot real.

Emanuele Musumeci, Michele Brienza, Francesco Argenziano, Abdel Hakim Drid, Vincenzo Suriani, Daniele Nardi, Domenico D. Bloisi2026-03-10💻 cs

Adaptive Batch-Wise Sample Scheduling for Direct Preference Optimization

Este trabajo presenta SamS, un algoritmo eficiente que mejora el rendimiento de la Optimización Directa de Preferencias (DPO) al adaptar dinámicamente la selección de muestras en cada lote basándose en el estado evolutivo del modelo, logrando una mayor capacidad de generalización sin modificar el algoritmo central ni añadir una carga computacional significativa.

Zixuan Huang, Yikun Ban, Lean Fu, Xiaojie Li, Zhongxiang Dai, Jianxin Li, Deqing Wang2026-03-10🤖 cs.LG

A Simple "Motivation" Can Enhance Reinforcement Finetuning of Large Reasoning Models

El artículo presenta MeRF, un método que mejora el ajuste fino por refuerzo de modelos de razonamiento grandes al inyectar la especificación de la recompensa en el prompt como una "motivación" que aprovecha la capacidad de aprendizaje en contexto del modelo para alinear la generación con el objetivo de optimización.

Junjie Zhang, Guozheng Ma, Shunyu Liu, Haoyu Wang, Jiaxing Huang, Ting-En Lin, Fei Huang, Yongbin Li, Dacheng Tao2026-03-10💬 cs.CL

SUBARU: A Practical Approach to Power Saving in Hearables Using SUB-Nyquist Audio Resolution Upsampling

El artículo presenta SUBARU, un enfoque práctico que reduce el consumo energético en dispositivos auditivos mediante el muestreo sub-Nyquist y baja resolución de bits, logrando una reconstrucción de audio de banda ancha y mejora de la voz en tiempo real con una eficiencia de potencia 3,31 veces superior.

Tarikul Islam Tamiti, Sajid Fardin Dipto, Luke Benjamin Baja-Ricketts, David C Vergano, Anomadarshi Barua2026-03-10💻 cs

LD-RPS: Zero-Shot Unified Image Restoration via Latent Diffusion Recurrent Posterior Sampling

El artículo presenta LD-RPS, un enfoque unificado y sin datos de entrenamiento para la restauración de imágenes que utiliza muestreo recurrente de posterior en un modelo de difusión latente preentrenado, potenciado por un modelo de comprensión multimodal para lograr resultados superiores a los métodos actuales en diversas degradaciones.

Huaqiu Li, Yong Wang, Tongwen Huang, Hailang Huang, Haoqian Wang, Xiangxiang Chu2026-03-10💻 cs

Noisy PDE Training Requires Bigger PINNs

El artículo demuestra que las Redes Neuronales Informadas por Física (PINNs) requieren un tamaño de modelo suficientemente grande para lograr un riesgo empírico inferior a la varianza del ruido en los datos, estableciendo un límite inferior cuantitativo que impide que simplemente aumentar la cantidad de etiquetas ruidosas reduzca el error sin un aumento proporcional en los parámetros.

Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook2026-03-10🤖 cs.LG

A Robust Incomplete Multimodal Low-Rank Adaptation Approach for Emotion Recognition

Este artículo presenta MCULoRA, un nuevo enfoque de adaptación de bajo rango que desacopla dinámicamente las características de las combinaciones modales para resolver los conflictos de gradientes en el reconocimiento de emociones multimodal con datos incompletos, superando significativamente a los métodos existentes.

Xinkui Zhao, Jinsong Shu, Yangyang Wu, Guanjie Cheng, Zihe Liu, Naibo Wang, Shuiguang Deng, Zhongle Xie, Jianwei Yin2026-03-10💻 cs

InsightX Agent: An LMM-based Agentic Framework with Integrated Tools for Reliable X-ray NDT Analysis

El artículo presenta InsightX Agent, un marco basado en un Modelo Multimodal Grande (LMM) que orquesta herramientas de detección y reflexión para ofrecer un análisis de inspección no destructiva por rayos X más fiable, interpretable e interactivo, logrando un alto rendimiento en la detección de defectos y una mayor confianza operativa.

Jiale Liu, Huan Wang, Yue Zhang + 4 more2026-03-10🤖 cs.AI

Post-Disaster Affected Area Segmentation with a Vision Transformer (ViT)-based EVAP Model using Sentinel-2 and Formosat-5 Imagery

Este artículo propone un marco de aprendizaje profundo basado en Vision Transformer (ViT) que utiliza análisis de espacio de características y un índice de confianza para generar datos de entrenamiento débilmente supervisados a partir de imágenes Sentinel-2 y Formosat-5, mejorando así la segmentación de áreas afectadas por desastres para el producto EVAP de la Agencia Espacial de Taiwán en escenarios con escasa información de referencia.

Yi-Shan Chu, Hsuan-Cheng Wei2026-03-10💻 cs

Flow Matching Meets Biology and Life Science: A Survey

Este artículo presenta la primera encuesta exhaustiva sobre el flujo de emparejamiento y sus aplicaciones en biología y ciencias de la vida, abarcando desde sus fundamentos teóricos hasta su uso en la modelación de secuencias biológicas, el diseño de moléculas y la generación de péptidos y proteínas.

Zihao Li, Zhichen Zeng, Xiao Lin, Feihao Fang, Yanru Qu, Zhe Xu, Zhining Liu, Xuying Ning, Tianxin Wei, Ge Liu, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Goal Alignment in LLM-Based User Simulators for Conversational AI

Este artículo presenta UGST, un nuevo marco y metodología de tres etapas que permite a los simuladores de usuarios basados en modelos de lenguaje grandes (LLM) rastrear y mantener la alineación con sus objetivos durante conversaciones multi-turno, mejorando significativamente su rendimiento en benchmarks como MultiWOZ 2.4 y τ-Bench.

Shuhaib Mehri, Xiaocheng Yang, Takyoung Kim, Gokhan Tur, Shikib Mehri, Dilek Hakkani-Tür2026-03-10💬 cs.CL