RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

El artículo presenta RL-100, un marco de aprendizaje por refuerzo en el mundo real basado en políticas de difusión que unifica la imitación y el refuerzo para lograr un control robótico de alta frecuencia y un rendimiento del 100% en diversas tareas complejas, superando a operadores expertos y demostrando una robustez sin precedentes en despliegues reales.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe XuWed, 11 Ma🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

El artículo presenta FALCON, un nuevo paradigma que mejora los modelos de visión-idioma-acción inyectando tokens espaciales 3D ricos derivados de modelos fundacionales en la cabeza de acción, logrando un rendimiento superior y una mayor robustez en tareas del mundo real sin comprometer el razonamiento lingüístico.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

SynHLMA:Synthesizing Hand Language Manipulation for Articulated Object with Discrete Human Object Interaction Representation

El artículo presenta SynHLMA, un marco innovador que genera secuencias de manipulación de manos para objetos articulados a partir de instrucciones en lenguaje natural, utilizando una representación discreta de la interacción mano-objeto y un modelo de lenguaje alineado para lograr tareas de generación, predicción e interpolación con aplicaciones en robótica.

Wang zhi, Yuyan Liu, Liu Liu, Li Zhang, Ruixuan Lu, Dan GuoWed, 11 Ma🤖 cs.AI

GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation

El artículo presenta GraphKeeper, un método novedoso para el aprendizaje incremental de dominio en grafos que aborda el olvido catastrófico mediante la desensamblaje y preservación del conocimiento, logrando resultados superiores al estado del arte y una integración flexible con modelos fundamentales de grafos.

Zihao Guo, Qingyun Sun, Ziwei Zhang, Haonan Yuan, Huiping Zhuang, Xingcheng Fu, Jianxin LiWed, 11 Ma🤖 cs.AI

Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning

Este artículo presenta LTSV, un método ligero para la valoración de datos en series temporales que aprovecha el ajuste fino en contexto de modelos fundacionales para estimar la contribución de las muestras de manera eficiente y precisa, superando las limitaciones computacionales y de dependencia temporal de los enfoques tradicionales.

Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong NgWed, 11 Ma🤖 cs.AI

TSFM in-context learning for time-series classification of bearing-health status

Este artículo presenta un método de aprendizaje en contexto basado en modelos fundacionales de series temporales para clasificar el estado de salud de rodamientos en motores de servoprensas sin necesidad de ajuste fino, demostrando su eficacia en diversas condiciones operativas y su potencial para sistemas de mantenimiento como servicio.

Michel Tokic, Slobodan Djukanovic, Anja von Beuningen, Cheng FengWed, 11 Ma🤖 cs.AI

Mitigating Long-Tail Bias in HOI Detection via Adaptive Diversity Cache

Este artículo presenta el módulo de Caché de Diversidad Adaptativa (ADC), una solución plug-and-play y sin entrenamiento que mitiga el sesgo de cola larga en la detección de interacciones humano-objeto mediante la acumulación dinámica de representaciones de características diversas durante la inferencia, mejorando significativamente la detección de categorías raras sin requerir ajuste adicional.

Yuqiu Jiang, Xiaozhen Qiao, Yifan Chen, Ye Zheng, Zhe Sun, Xuelong LiWed, 11 Ma🤖 cs.AI

When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models

Este trabajo presenta UPA-RFAS, un marco unificado que genera parches adversarios universales y transferibles capaces de engañar a modelos de Visión-Lenguaje-Acción (VLA) en diversos escenarios, arquitecturas desconocidas y condiciones físicas, exponiendo así una vulnerabilidad crítica en la seguridad de los robots.

Hui Lu, Yi Yu, Yiming Yang, Chenyu Yi, Qixin Zhang, Bingquan Shen, Alex C. Kot, Xudong JiangWed, 11 Ma🤖 cs.AI

Multi-Agent Reinforcement Learning with Communication-Constrained Priors

Los autores proponen un marco generalizado de aprendizaje por refuerzo multiagente que utiliza un prior de comunicación restringida y un estimador de información mutua dual para distinguir entre mensajes con y sin pérdidas, desacoplar sus impactos en la toma de decisiones distribuida y cuantificar su efecto en la recompensa global, demostrando así su eficacia en entornos complejos y dinámicos con limitaciones de comunicación.

Guang Yang, Tianpei Yang, Jingwen Qiao, Yanqing Wu, Jing Huo, Xingguo Chen, Yang GaoWed, 11 Ma🤖 cs.AI

Enhancing Retrieval-Augmented Generation with Entity Linking for Educational Platforms

El artículo presenta ELERAG, una arquitectura de generación aumentada por recuperación (RAG) que integra la vinculación de entidades y una estrategia de reordenamiento híbrida para mejorar significativamente la precisión factual en sistemas de preguntas y respuestas educativas en italiano, demostrando su superioridad sobre métodos convencionales en dominios específicos.

Francesco Granata, Francesco Poggi, Misael MongiovìWed, 11 Ma🤖 cs.AI

EMFusion: Conditional Diffusion Framework for Trustworthy Frequency Selective EMF Forecasting in Wireless Networks

Este artículo presenta EMFusion, un marco de pronóstico probabilístico basado en difusión condicional que utiliza una arquitectura U-Net residual con atención cruzada para realizar pronósticos multivariados selectivos en frecuencia de campos electromagnéticos (EMF) en redes inalámbricas, ofreciendo estimaciones de incertidumbre calibradas y superando significativamente a los modelos existentes en precisión y fiabilidad.

Zijiang Yan, Yixiang Huang, Jianhua Pei, Hina Tabassum, Luca ChiaraviglioWed, 11 Ma🤖 cs.AI

Small Language Models for Efficient Agentic Tool Calling: Outperforming Large Models with Targeted Fine-tuning

Este trabajo demuestra que un modelo de lenguaje pequeño (OPT-350M) finetuneado de manera dirigida supera significativamente a modelos grandes y a otros baselines en la ejecución de llamadas a herramientas, logrando una tasa de éxito del 77,55% en ToolBench y ofreciendo una alternativa rentable y eficiente para la integración de IA generativa en entornos empresariales.

Polaris Jhandi, Owais Kazi, Shreyas Subramanian, Neel SendasWed, 11 Ma🤖 cs.AI

Reinforcement Learning for Self-Improving Agent with Skill Library

El artículo presenta SAGE, un marco de aprendizaje por refuerzo que mejora la capacidad de auto-mejora de los agentes mediante una biblioteca de habilidades y un mecanismo de despliegue secuencial, logrando en la prueba AppWorld una mayor tasa de finalización de objetivos con menos pasos e interacciones que los enfoques existentes.

Jiongxiao Wang, Qiaojing Yan, Yawei Wang, Yijun Tian, Soumya Smruti Mishra, Zhichao Xu, Megha Gandhi, Panpan Xu, Lin Lee CheongWed, 11 Ma🤖 cs.AI

MCGI: Manifold-Consistent Graph Indexing for Billion-Scale Disk-Resident Vector Search

El artículo presenta MCGI, un método de indexación de grafos residente en disco que utiliza la dimensión intrínseca local para adaptar dinámicamente la búsqueda de vecinos más cercanos aproximados a la geometría de los datos, logrando un rendimiento superior y una mayor escalabilidad en conjuntos de datos de miles de millones de elementos en comparación con las soluciones actuales.

Dongfang ZhaoWed, 11 Ma🤖 cs.AI

CRANE: Causal Relevance Analysis of Language-Specific Neurons in Multilingual Large Language Models

El paper presenta CRANE, un marco de análisis basado en la relevancia funcional que identifica neuronas específicas de cada idioma en modelos multilingües mediante intervenciones dirigidas, demostrando que estas neuronas son esenciales para el rendimiento en un idioma concreto sin ser exclusivas de él, superando así a los métodos tradicionales basados en la magnitud de activación.

Yifan Le, Yunliang LiWed, 11 Ma🤖 cs.AI