LLAMA LIMA: A Living Meta-Analysis on the Effects of Generative AI on Learning Mathematics

Questo studio presenta una meta-analisi dinamica (LIMA) che, aggiornandosi continuamente secondo le linee guida PRISMA-LSR e applicando un modello bayesiano, evidenzia un effetto positivo delle intelligenze artificiali generative sull'apprendimento della matematica (g = 0,42) basato su 21 ricerche, pur sottolineando la necessità di ulteriori evidenze data la vasta intervallo di credibilità.

Anselm Strohmaier, Samira Bödefeld, Oliver Straser + 1 more2026-03-03🤖 cs.LG

Analysis of Shuffling Beyond Pure Local Differential Privacy

Questo articolo supera i limiti dell'analisi basata sul parametro ε0\varepsilon_0 per la privacy differenziale locale pura, introducendo un nuovo indice di shuffling derivato dalla divergenza blanket che permette di caratterizzare l'amplificazione della privacy per meccanismi più generali come la Gaussiana, fornendo al contempo un algoritmo FFT efficiente per il calcolo numerico della privacy in scenari finiti.

Shun Takagi, Seng Pei Liew2026-03-03🔢 math

Reward Models Inherit Value Biases from Pretraining

Lo studio dimostra che i modelli di ricompensa ereditano pregiudizi di valore dal loro modello linguistico preaddestrato, mostrando preferenze sistematiche per l'«agenzia» o la «comunione» in base alla base utilizzata, il che sottolinea l'importanza cruciale della fase di preaddestramento e della scelta del modello di base per l'allineamento ai valori umani.

Brian Christian, Jessica A. F. Thompson, Elle Michelle Yang + 4 more2026-03-03💬 cs.CL

When Anomalies Depend on Context: Learning Conditional Compatibility for Anomaly Detection

Questo lavoro introduce il benchmark CAAD-3K e un nuovo framework di apprendimento della compatibilità condizionale basato su rappresentazioni visione-linguaggio per affrontare l'individuazione di anomalie contestuali, superando i limiti degli approcci tradizionali che considerano l'anomalia come una proprietà intrinseca indipendente dal contesto.

Shashank Mishra, Didier Stricker, Jason Rambach2026-03-03🤖 cs.LG

Decoupled Diffusion Sampling for Inverse Problems on Function Spaces

Il paper propone il Decoupled Diffusion Inverse Solver (DDIS), un framework generativo efficiente nei dati che risolve i problemi inversi delle PDE disaccoppiando l'apprendimento del prior dei coefficienti dalla modellazione esplicita dell'operatore fisico, ottenendo così prestazioni superiori rispetto ai modelli congiunti, specialmente in scenari con dati limitati.

Thomas Y. L. Lin, Jiachen Yao, Lufang Chiang + 2 more2026-03-03🔢 math

Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models

Questo articolo propone un metodo innovativo di quantizzazione post-allenamento per i modelli di diffusione che, assegnando pesi ottimali ai campioni di calibrazione per allineare i gradienti tra i diversi passi temporali, supera le limitazioni delle tecniche esistenti e migliora significativamente l'efficienza e le prestazioni del modello.

Dung Anh Hoang, Cuong Pham anh Trung Le, Jianfei Cai + 1 more2026-03-03🤖 cs.LG

Vision-DeepResearch Benchmark: Rethinking Visual and Textual Search for Multimodal Large Language Models

Il paper presenta VDR-Bench, un nuovo benchmark di 2.000 istanze progettato per valutare in modo realistico le capacità di ricerca visiva e testuale dei modelli linguistici multimodali, superando le limitazioni degli attuali dataset e proponendo un flusso di lavoro a più round con ritaglio dell'immagine per migliorare le prestazioni di recupero visivo.

Yu Zeng, Wenxuan Huang, Zhen Fang + 14 more2026-03-03💬 cs.CL

Learning to Explore with Parameter-Space Noise: A Deep Dive into Parameter-Space Noise for Reinforcement Learning with Verifiable Rewards

Il paper introduce PSN-RLVR, un metodo che supera i limiti esplorativi del Reinforcement Learning con Ricompense Verificabili (RLVR) applicando rumore nello spazio dei parametri dei modelli LLM, integrato con campionamento per importanza tronco e un adattatore di rumore in tempo reale, per migliorare significativamente le prestazioni di ragionamento matematico su larga scala.

Bizhe Bai, Xinyue Wang, Peng Ye + 1 more2026-03-03🤖 cs.AI

Relaxed Triangle Inequality for Kullback-Leibler Divergence Between Multivariate Gaussian Distributions

Questo lavoro risolve il problema del supremo della divergenza Kullback-Leibler tra tre distribuzioni gaussiane multivariate soddisfacendo una disuguaglianza triangolare rilassata, fornendo una formula precisa per il limite superiore e dimostrando la sua utilità nel rilevamento di dati fuori distribuzione e nell'apprendimento per rinforzo sicuro.

Shiji Xiao, Yufeng Zhang, Chubo Liu + 3 more2026-03-03📊 stat

Entropy-Guided Dynamic Tokens for Graph-LLM Alignment in Molecular Understanding

Il paper presenta EDT-Former, un trasformatore di token dinamici guidato dall'entropia che allinea efficientemente encoder grafici congelati con modelli linguistici di grandi dimensioni per la comprensione molecolare, superando i limiti delle architetture statiche esistenti e ottenendo risultati all'avanguardia su diversi benchmark senza richiedere il riaddestramento del backbone LLM.

Zihao Jing, Qiuhao Zeng, Ruiyi Fang + 3 more2026-03-03🤖 cs.AI