RL-100: Performant Robotic Manipulation with Real-World Reinforcement Learning

Il paper presenta RL-100, un framework di apprendimento per rinforzo nel mondo reale basato su politiche visuo-motorie a diffusione, che unifica imitazione e rinforzo per ottenere un controllo robotico ad alta frequenza, stabile e robusto, raggiungendo il 100% di successo in 1000 episodi su otto compiti diversi e dimostrando capacità di adattamento zero-shot e few-shot in scenari dinamici complessi.

Kun Lei, Huanyu Li, Dongjie Yu, Zhenyu Wei, Lingxiao Guo, Zhennan Jiang, Ziyu Wang, Shiyu Liang, Huazhe XuWed, 11 Ma🤖 cs.AI

From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors

Il lavoro presenta FALCON, un nuovo paradigma che colma il divario di ragionamento spaziale nei modelli Vision-Language-Action integrando token 3D ricchi di informazioni geometriche direttamente nel modulo di azione, ottenendo così prestazioni all'avanguardia su numerosi compiti reali e simulati senza richiedere sensori specializzati o modifiche architetturali.

Zhengshen Zhang, Hao Li, Yalun Dai, Zhengbang Zhu, Lei Zhou, Chenchen Liu, Dong Wang, Francis E. H. Tay, Sijin Chen, Ziwei Liu, Yuxiao Liu, Xinghang Li, Pan ZhouWed, 11 Ma🤖 cs.AI

GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation

Il paper presenta GraphKeeper, un nuovo approccio per l'apprendimento incrementale di dominio sui grafi che risolve il problema dell'oblio catastrofico attraverso la svincolamento e la preservazione della conoscenza, ottenendo risultati all'avanguardia e integrandosi efficacemente con diversi modelli fondazionali per i grafi.

Zihao Guo, Qingyun Sun, Ziwei Zhang, Haonan Yuan, Huiping Zhuang, Xingcheng Fu, Jianxin LiWed, 11 Ma🤖 cs.AI

Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning

Il paper propone LTSV, un metodo leggero per la valutazione dei dati nelle serie temporali basato sui modelli fondazionali, che utilizza il fine-tuning in contesto e l'aggregazione di blocchi temporali per stimare in modo efficiente e preciso il contributo dei singoli campioni preservando le dipendenze temporali.

Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong NgWed, 11 Ma🤖 cs.AI

TSFM in-context learning for time-series classification of bearing-health status

Il paper presenta un metodo di classificazione basato sull'apprendimento in contesto con modelli fondazione per serie temporali (TSFM) che, senza necessità di riaddestramento, valuta lo stato di salute dei cuscinetti analizzando dati vibrazionali, aprendo la strada a sistemi di manutenzione predittiva scalabili e forniti come servizio.

Michel Tokic, Slobodan Djukanovic, Anja von Beuningen, Cheng FengWed, 11 Ma🤖 cs.AI

Mitigating Long-Tail Bias in HOI Detection via Adaptive Diversity Cache

Il paper propone l'Adaptive Diversity Cache (ADC), un modulo plug-and-play privo di addestramento che mitiga il bias a lunga coda nella rilevazione delle interazioni uomo-oggetto (HOI) accumulando rappresentazioni di feature diversificate e adattando dinamicamente la capacità di archiviazione per migliorare la rilevazione delle categorie rare senza richiedere ulteriore ottimizzazione.

Yuqiu Jiang, Xiaozhen Qiao, Yifan Chen, Ye Zheng, Zhe Sun, Xuelong LiWed, 11 Ma🤖 cs.AI

When Robots Obey the Patch: Universal Transferable Patch Attacks on Vision-Language-Action Models

Il paper presenta UPA-RFAS, un framework unificato che genera patch fisiche universali e trasferibili per attaccare modelli Vision-Language-Action in scenari black-box, sfruttando obiettivi nello spazio delle feature, un processo min-max robusto e perdite specifiche per il dominio VLA per garantire il successo dell'attacco su diverse architetture e compiti.

Hui Lu, Yi Yu, Yiming Yang, Chenyu Yi, Qixin Zhang, Bingquan Shen, Alex C. Kot, Xudong JiangWed, 11 Ma🤖 cs.AI

Multi-Agent Reinforcement Learning with Communication-Constrained Priors

Il paper propone un nuovo framework di apprendimento per rinforzo multi-agente che utilizza un modello generalizzato vincolato alle comunicazioni come prior di apprendimento per distinguere tra messaggi persi e integri, disaccoppiandone l'impatto decisionale e quantificandolo nella ricompensa globale per migliorare la cooperazione in scenari reali complessi.

Guang Yang, Tianpei Yang, Jingwen Qiao, Yanqing Wu, Jing Huo, Xingguo Chen, Yang GaoWed, 11 Ma🤖 cs.AI

Enhancing Retrieval-Augmented Generation with Entity Linking for Educational Platforms

Il paper presenta ELERAG, un'architettura RAG potenziata dal Linking di Entità e da una strategia di riordinamento ibrida, che dimostra come l'integrazione di segnali fattuali basati su Wikidata migliori significativamente l'accuratezza nei sistemi di domanda-risposta educativi in italiano, superando i metodi tradizionali nei contesti specifici di dominio pur mantenendo prestazioni competitive su dataset generali.

Francesco Granata, Francesco Poggi, Misael MongiovìWed, 11 Ma🤖 cs.AI

EMFusion: Conditional Diffusion Framework for Trustworthy Frequency Selective EMF Forecasting in Wireless Networks

Il documento presenta EMFusion, un framework di previsione probabilistica basato sulla diffusione condizionale che, integrando fattori contestuali e strategie di imputazione, supera le prestazioni dei modelli esistenti nella previsione selettiva in frequenza dei campi elettromagnetici, fornendo stime affidabili con quantificazione esplicita dell'incertezza per la pianificazione delle reti wireless.

Zijiang Yan, Yixiang Huang, Jianhua Pei, Hina Tabassum, Luca ChiaraviglioWed, 11 Ma🤖 cs.AI

Small Language Models for Efficient Agentic Tool Calling: Outperforming Large Models with Targeted Fine-tuning

Questo studio dimostra che un piccolo modello linguistico (SLM) come l'OPT-350M, opportunamente affinato tramite tecniche di Supervised Fine-Tuning, può superare le prestazioni dei grandi modelli (LLM) nel richiamo degli strumenti con un tasso di successo del 77,55%, offrendo una soluzione più economica ed efficiente per l'integrazione dell'IA generativa nei sistemi aziendali.

Polaris Jhandi, Owais Kazi, Shreyas Subramanian, Neel SendasWed, 11 Ma🤖 cs.AI

Reinforcement Learning for Self-Improving Agent with Skill Library

Il paper presenta SAGE, un nuovo framework di Reinforcement Learning che potenzia l'auto-miglioramento degli agenti basati su LLM integrando una libreria di competenze attraverso un meccanismo di rollout sequenziale e una ricompensa specifica, ottenendo risultati superiori in termini di accuratezza ed efficienza rispetto agli approcci esistenti.

Jiongxiao Wang, Qiaojing Yan, Yawei Wang, Yijun Tian, Soumya Smruti Mishra, Zhichao Xu, Megha Gandhi, Panpan Xu, Lin Lee CheongWed, 11 Ma🤖 cs.AI