v-HUB: A Benchmark for Video Humor Understanding from Vision and Sound

El artículo presenta v-HUB, un nuevo benchmark de comprensión del humor en videos que utiliza clips no verbales y anotaciones ricas para evaluar modelos de lenguaje multimodal, demostrando que la integración de pistas auditivas mejora significativamente la capacidad de los modelos para entender el humor visual.

Zhengpeng Shi, Yanpeng Zhao, Jianqun Zhou, Yuxuan Wang, Qinrong Cui, Wei Bi, Songchun Zhu, Bo Zhao, Zilong Zheng2026-03-11🤖 cs.AI

Latent Speech-Text Transformer

El artículo presenta el Transformer de Voz-Texto Latente (LST), un modelo que agrupa los tokens de voz en parches latentes para equilibrar la granularidad con el texto y mejorar la eficiencia computacional, logrando así un rendimiento superior tanto en tareas de voz como de texto en comparación con los modelos autoregresivos tradicionales.

Yen-Ju Lu, Yashesh Gaur, Wei Zhou, Benjamin Muller, Jesus Villalba, Najim Dehak, Luke Zettlemoyer, Gargi Ghosh, Mike Lewis, Srinivasan Iyer, Duc Le2026-03-11🤖 cs.AI

AlphaApollo: A System for Deep Agentic Reasoning

El artículo presenta AlphaApollo, un sistema de razonamiento agéntico que aborda las limitaciones en la resolución de problemas complejos y la evolución durante la inferencia mediante la orquestación de interacciones multi-turno, aprendizaje por refuerzo y un ciclo de evolución con verificación asistida por herramientas, logrando mejoras significativas en diversos benchmarks matemáticos.

Zhanke Zhou, Chentao Cao, Xiao Feng, Xuan Li, Zongze Li, Xiangyu Lu, Jiangchao Yao, Weikai Huang, Tian Cheng, Jianghangfan Zhang, Tangyu Jiang, Linrui Xu, Yiming Zheng, Brando Miranda, Tongliang Liu, Sanmi Koyejo, Masashi Sugiyama, Bo Han2026-03-11🤖 cs.AI

RECODE: Reasoning Through Code Generation for Visual Question Answering

El artículo presenta RECODE, un marco agéntico que mejora el razonamiento visual en modelos multimodales al transformar la percepción de imágenes estructuradas en código ejecutable verificable mediante un proceso de generación, selección y refinamiento iterativo, logrando así un rendimiento superior en benchmarks como CharXiv y ChartQA.

Junhong Shen, Mu Cai, Bo Hu, Ameet Talwalkar, David A Ross, Cordelia Schmid, Alireza Fathi2026-03-11🤖 cs.AI

RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

El artículo presenta RL-100, un marco de aprendizaje por refuerzo en el mundo real basado en políticas de difusión que unifica la imitación y el refuerzo para lograr un control robótico de alta frecuencia y un rendimiento del 100% en diversas tareas complejas, superando a operadores expertos y demostrando una robustez sin precedentes en despliegues reales.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe Xu2026-03-11🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

El artículo presenta FALCON, un nuevo paradigma que mejora los modelos de visión-idioma-acción inyectando tokens espaciales 3D ricos derivados de modelos fundacionales en la cabeza de acción, logrando un rendimiento superior y una mayor robustez en tareas del mundo real sin comprometer el razonamiento lingüístico.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan Zhou2026-03-11🤖 cs.AI

SynHLMA:Synthesizing Hand Language Manipulation for Articulated Object with Discrete Human Object Interaction Representation

El artículo presenta SynHLMA, un marco innovador que genera secuencias de manipulación de manos para objetos articulados a partir de instrucciones en lenguaje natural, utilizando una representación discreta de la interacción mano-objeto y un modelo de lenguaje alineado para lograr tareas de generación, predicción e interpolación con aplicaciones en robótica.

Wang zhi, Yuyan Liu, Liu Liu, Li Zhang, Ruixuan Lu, Dan Guo2026-03-11🤖 cs.AI

GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation

El artículo presenta GraphKeeper, un método novedoso para el aprendizaje incremental de dominio en grafos que aborda el olvido catastrófico mediante la desensamblaje y preservación del conocimiento, logrando resultados superiores al estado del arte y una integración flexible con modelos fundamentales de grafos.

Zihao Guo, Qingyun Sun, Ziwei Zhang, Haonan Yuan, Huiping Zhuang, Xingcheng Fu, Jianxin Li2026-03-11🤖 cs.AI

Information Capacity: Evaluating the Efficiency of Large Language Models via Text Compression

Este artículo introduce la "capacidad de información", una nueva métrica que evalúa la eficiencia de los modelos de lenguaje grandes mediante el rendimiento de compresión de texto en relación con la complejidad computacional y la eficiencia del tokenizador, demostrando su utilidad para predecir el rendimiento, revelar sesgos lingüísticos y guiar el desarrollo futuro de modelos más eficientes.

Cheng Yuan, Jiawei Shao, Xuelong Li2026-03-11💬 cs.CL

Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning

Este artículo presenta LTSV, un método ligero para la valoración de datos en series temporales que aprovecha el ajuste fino en contexto de modelos fundacionales para estimar la contribución de las muestras de manera eficiente y precisa, superando las limitaciones computacionales y de dependencia temporal de los enfoques tradicionales.

Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong Ng2026-03-11🤖 cs.AI

TSFM in-context learning for time-series classification of bearing-health status

Este artículo presenta un método de aprendizaje en contexto basado en modelos fundacionales de series temporales para clasificar el estado de salud de rodamientos en motores de servoprensas sin necesidad de ajuste fino, demostrando su eficacia en diversas condiciones operativas y su potencial para sistemas de mantenimiento como servicio.

Michel Tokic, Slobodan Djukanovic, Anja von Beuningen, Cheng Feng2026-03-11🤖 cs.AI

Mitigating Long-Tail Bias in HOI Detection via Adaptive Diversity Cache

Este artículo presenta el módulo de Caché de Diversidad Adaptativa (ADC), una solución plug-and-play y sin entrenamiento que mitiga el sesgo de cola larga en la detección de interacciones humano-objeto mediante la acumulación dinámica de representaciones de características diversas durante la inferencia, mejorando significativamente la detección de categorías raras sin requerir ajuste adicional.

Yuqiu Jiang, Xiaozhen Qiao, Yifan Chen, Ye Zheng, Zhe Sun, Xuelong Li2026-03-11🤖 cs.AI

When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models

Este trabajo presenta UPA-RFAS, un marco unificado que genera parches adversarios universales y transferibles capaces de engañar a modelos de Visión-Lenguaje-Acción (VLA) en diversos escenarios, arquitecturas desconocidas y condiciones físicas, exponiendo así una vulnerabilidad crítica en la seguridad de los robots.

Hui Lu, Yi Yu, Yiming Yang, Chenyu Yi, Qixin Zhang, Bingquan Shen, Alex C. Kot, Xudong Jiang2026-03-11🤖 cs.AI

Multi-Agent Reinforcement Learning with Communication-Constrained Priors

Los autores proponen un marco generalizado de aprendizaje por refuerzo multiagente que utiliza un prior de comunicación restringida y un estimador de información mutua dual para distinguir entre mensajes con y sin pérdidas, desacoplar sus impactos en la toma de decisiones distribuida y cuantificar su efecto en la recompensa global, demostrando así su eficacia en entornos complejos y dinámicos con limitaciones de comunicación.

Guang Yang, Tianpei Yang, Jingwen Qiao, Yanqing Wu, Jing Huo, Xingguo Chen, Yang Gao2026-03-11🤖 cs.AI