LLAMA LIMA: A Living Meta-Analysis on the Effects of Generative AI on Learning Mathematics

Questo studio presenta una meta-analisi dinamica (LIMA) che, aggiornandosi continuamente secondo le linee guida PRISMA-LSR e applicando un modello bayesiano, evidenzia un effetto positivo delle intelligenze artificiali generative sull'apprendimento della matematica (g = 0,42) basato su 21 ricerche, pur sottolineando la necessità di ulteriori evidenze data la vasta intervallo di credibilità.

Anselm Strohmaier, Samira Bödefeld, Oliver Straser + 1 more2026-03-03🤖 cs.LG

Analysis of Shuffling Beyond Pure Local Differential Privacy

Questo articolo supera i limiti dell'analisi basata sul parametro ε0\varepsilon_0 per la privacy differenziale locale pura, introducendo un nuovo indice di shuffling derivato dalla divergenza blanket che permette di caratterizzare l'amplificazione della privacy per meccanismi più generali come la Gaussiana, fornendo al contempo un algoritmo FFT efficiente per il calcolo numerico della privacy in scenari finiti.

Shun Takagi, Seng Pei Liew2026-03-03🔢 math

Reward Models Inherit Value Biases from Pretraining

Lo studio dimostra che i modelli di ricompensa ereditano pregiudizi di valore dal loro modello linguistico preaddestrato, mostrando preferenze sistematiche per l'«agenzia» o la «comunione» in base alla base utilizzata, il che sottolinea l'importanza cruciale della fase di preaddestramento e della scelta del modello di base per l'allineamento ai valori umani.

Brian Christian, Jessica A. F. Thompson, Elle Michelle Yang + 4 more2026-03-03💬 cs.CL

When Anomalies Depend on Context: Learning Conditional Compatibility for Anomaly Detection

Questo lavoro introduce il benchmark CAAD-3K e un nuovo framework di apprendimento della compatibilità condizionale basato su rappresentazioni visione-linguaggio per affrontare l'individuazione di anomalie contestuali, superando i limiti degli approcci tradizionali che considerano l'anomalia come una proprietà intrinseca indipendente dal contesto.

Shashank Mishra, Didier Stricker, Jason Rambach2026-03-03🤖 cs.LG

Decoupled Diffusion Sampling for Inverse Problems on Function Spaces

Il paper propone il Decoupled Diffusion Inverse Solver (DDIS), un framework generativo efficiente nei dati che risolve i problemi inversi delle PDE disaccoppiando l'apprendimento del prior dei coefficienti dalla modellazione esplicita dell'operatore fisico, ottenendo così prestazioni superiori rispetto ai modelli congiunti, specialmente in scenari con dati limitati.

Thomas Y. L. Lin, Jiachen Yao, Lufang Chiang + 2 more2026-03-03🔢 math

Gradient-Aligned Calibration for Post-Training Quantization of Diffusion Models

Questo articolo propone un metodo innovativo di quantizzazione post-allenamento per i modelli di diffusione che, assegnando pesi ottimali ai campioni di calibrazione per allineare i gradienti tra i diversi passi temporali, supera le limitazioni delle tecniche esistenti e migliora significativamente l'efficienza e le prestazioni del modello.

Dung Anh Hoang, Cuong Pham anh Trung Le, Jianfei Cai + 1 more2026-03-03🤖 cs.LG

Vision-DeepResearch Benchmark: Rethinking Visual and Textual Search for Multimodal Large Language Models

Il paper presenta VDR-Bench, un nuovo benchmark di 2.000 istanze progettato per valutare in modo realistico le capacità di ricerca visiva e testuale dei modelli linguistici multimodali, superando le limitazioni degli attuali dataset e proponendo un flusso di lavoro a più round con ritaglio dell'immagine per migliorare le prestazioni di recupero visivo.

Yu Zeng, Wenxuan Huang, Zhen Fang + 14 more2026-03-03💬 cs.CL