DRA-GRPO: Your GRPO Needs to Know Diverse Reasoning Paths for Mathematical Reasoning

Il paper presenta DRA-GRPO, un framework che migliora il ragionamento matematico dei modelli linguistici integrando una calibrazione della diversità basata sull'informazione mutua sottomodulare nel processo di ottimizzazione GRPO, permettendo così di superare la limitazione delle ricompense scalari standard e ottenere prestazioni superiori con dati di addestramento ridotti.

Xiwen Chen, Wenhui Zhu, Peijie Qiu + 7 more2026-03-03💬 cs.CL

Addition is almost all you need: Compressing large language models with double binary factorization

Questo articolo presenta la Double Binary Factorization (DBF), un metodo innovativo che comprime i grandi modelli linguistici fattorizzando le matrici dei pesi in prodotti di due matrici binarie con vettori di scala, offrendo un elevato rapporto di compressione e un controllo fine-granulare della precisione senza compromettere significativamente l'accuratezza.

Vladimír Boža, Vladimír Macko2026-03-03🤖 cs.LG

Back to Square Roots: An Optimal Bound on the Matrix Factorization Error for Multi-Epoch Differentially Private SGD

Questo lavoro introduce il metodo di fattorizzazione BISR (Banded Inverse Square Root), che colma il divario teorico esistente fornendo un limite asintoticamente ottimale per l'errore di fattorizzazione matriciale nell'SGD differenzialmente privato multi-epoca, garantendo al contempo semplicità implementativa ed efficienza computazionale.

Nikita P. Kalinin, Ryan McKenna, Jalaj Upadhyay + 1 more2026-03-03🤖 cs.LG

GradPCA: Leveraging NTK Alignment for Reliable Out-of-Distribution Detection

Il paper introduce GradPCA, un metodo per il rilevamento di dati fuori distribuzione (OOD) che sfrutta la struttura a basso rango dei gradienti delle reti neurali indotta dall'allineamento NTK, applicando l'analisi delle componenti principali (PCA) alle medie dei gradienti per ottenere prestazioni più coerenti e fornendo un quadro teorico che evidenzia il ruolo cruciale della qualità delle feature.

Mariia Seleznova, Hung-Hsu Chou, Claudio Mayrink Verdun + 1 more2026-03-03🤖 cs.LG

NFT: Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Il paper propone la Negative-aware Fine-Tuning (NFT), un approccio di apprendimento supervisionato che, modellando le risposte errate generate internamente come una politica implicita, permette ai modelli linguistici di migliorare autonomamente nelle capacità di ragionamento matematico, colmando il divario tra metodi supervisionati e di apprendimento per rinforzo e dimostrando risultati paragonabili o superiori agli algoritmi RL più avanzati.

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang + 8 more2026-03-03💬 cs.CL