A Distributional Treatment of Real2Sim2Real for Object-Centric Agent Adaptation in Vision-Driven Deformable Linear Object Manipulation

Il paper presenta un framework end-to-end che utilizza l'inferenza senza verosimiglianza per stimare le distribuzioni posteriori dei parametri fisici degli oggetti deformabili lineari (DLO), permettendo l'addestramento in simulazione di politiche visuomotorie specifiche per oggetto che vengono poi deployate con successo nel mondo reale in modalità zero-shot.

Georgios Kamaras, Subramanian RamamoorthyWed, 11 Ma🤖 cs.LG

A Consequentialist Critique of Binary Classification Evaluation: Theory, Practice, and Tools

Questo articolo propone una critica consequenzialista alle pratiche di valutazione della classificazione binaria, sostenendo l'adozione di regole di scoring adeguate come il punteggio Brier attraverso un nuovo framework decisionale e il pacchetto Python `briertools`, che colmano il divario tra teoria e pratica dominata da metriche a soglia fissa.

Gerardo Flores, Abigail Schiff, Alyssa H. Smith, Julia A Fukuyama, Ashia C. WilsonWed, 11 Ma🤖 cs.AI

Stepwise Guided Policy Optimization: Coloring your Incorrect Reasoning in GRPO

Il paper introduce SGPO, un framework che risolve il limite di GRPO di non aggiornare la politica quando tutti i campioni di un gruppo sono errati, migliorando l'apprendimento per rinforzo nei modelli linguistici attraverso una diversificazione guidata da un modello giudice passo-passo che permette di apprendere anche dagli errori senza richiedere soluzioni corrette.

Peter Chen, Xiaopeng Li, Ziniu Li, Xi Chen, Tianyi LinWed, 11 Ma🤖 cs.AI

UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Language Models

Il paper presenta UltraEdit, un metodo innovativo per l'editing continuo dei modelli linguistici che, eliminando la necessità di addestramento, soggetti specifici o memoria esterna, raggiunge velocità e efficienza superiori rispetto agli stati dell'arte, permettendo di eseguire fino a 2 milioni di modifiche su modelli da 7B con risorse hardware limitate.

Xiaojie Gu, Ziying Huang, Jia-Chen Gu, Kai ZhangWed, 11 Ma🤖 cs.AI

A Systematic Evaluation of On-Device LLMs: Quantization, Performance, and Resources

Questo studio presenta una metodologia sistematica per valutare i modelli linguistici su dispositivi edge, dimostrando che i modelli grandi fortemente quantizzati superano quelli più piccoli ad alta precisione al di sotto di una soglia di circa 3,5 bit per peso, fornendo linee guida per ottimizzare capacità ed efficienza in ambienti con risorse limitate.

Qingyu Song, Rui Liu, Wei Lin, Peiyu Liao, Wenqian Zhao, Yiwen Wang, Shoubo Hu, Yining Jiang, Mochun Long, Hui-Ling Zhen, Ning Jiang, Mingxuan Yuan, Qiao Xiang, Hong XuWed, 11 Ma🤖 cs.LG

SATURN: SAT-based Reinforcement Learning to Unleash LLMs Reasoning

Il paper presenta SATURN, un framework di apprendimento per rinforzo basato su problemi di soddisfacibilità booleana (SAT) che supera le limitazioni di scalabilità, verificabilità e controllo della difficoltà delle attività esistenti, permettendo di potenziare significativamente le capacità di ragionamento dei modelli linguistici su compiti matematici e di programmazione attraverso un curriculum learning progressivo.

Huanyu Liu, Ge Li, Jia Li, Hao Zhu, Kechi Zhang, Yihong DongWed, 11 Ma🤖 cs.AI

Semi-Supervised Conformal Prediction With Unlabeled Nonconformity Score

Il paper propone SemiCP, un nuovo paradigma di previsione conformale semi-supervisionato che utilizza un punteggio di non-conformità basato sull'abbinamento dei vicini più prossimi (NNM) per sfruttare dati non etichettati durante la calibrazione, riducendo significativamente il divario di copertura rispetto ai metodi tradizionali quando i dati etichettati sono scarsi.

Xuanning Zhou, Zihao Shi, Hao Zeng, Xiaobo Xia, Bingyi Jing, Hongxin WeiWed, 11 Ma🤖 cs.LG

Cooperative Game-Theoretic Credit Assignment for Multi-Agent Policy Gradients via the Core

Il lavoro propone CORA, un metodo di assegnazione del credito per l'apprendimento per rinforzo multi-agente cooperativo che utilizza il nucleo della teoria dei giochi cooperativi e il campionamento casuale delle coalizioni per allocare in modo più efficace i vantaggi globali e promuovere comportamenti coordinati ottimali.

Mengda Ji, Genjiu Xu, Keke Jia, Zekun Duan, Yong Qiu, Jianjun Ge, Mingqiang LiWed, 11 Ma🤖 cs.AI