Probing Materials Knowledge in LLMs: From Latent Embeddings to Reliable Predictions

Lo studio rivela che l'affidabilità dei grandi modelli linguistici nelle scienze dei materiali dipende criticamente dal tipo di output richiesto, mostrando come il fine-tuning migliori la coerenza per i compiti simbolici ma non per quelli numerici, e che l'estrazione diretta degli embedding intermedi può superare i limiti delle risposte testuali, pur evidenziando significative variazioni di prestazioni nel tempo che minacciano la riproducibilità scientifica.

Vineeth Venugopal, Soroush Mahjoubi, Elsa Olivetti2026-03-03🔬 cond-mat.mtrl-sci

Quantitative Convergence of Wasserstein Gradient Flows of Kernel Mean Discrepancies

Questo studio stabilisce la convergenza quantitativa dei flussi gradiente di Wasserstein per le discrepanze di media kernel, fornendo nuovi risultati di esistenza, unicità e tassi di convergenza (globali esponenziali per s=1s=1 e locali polinomiali per s>1s>1) che si applicano al training di reti neurali a strato singolo e a sistemi di particelle interagenti, risolvendo questioni aperte sulla convergenza non quantitativa in questi contesti.

Lénaïc Chizat, Maria Colombo, Roberto Colombo + 1 more2026-03-03🔢 math

Leave-One-Out Prediction for General Hypothesis Classes

Il paper introduce la procedura di aggregazione MLSA per stabilire un'ineguaglianza oracolare moltiplicativa per l'errore di previsione leave-one-out in classi di ipotesi generali, dimostrando che tale errore è limitato da una costante moltiplicata per il rischio empirico minimo più un termine di complessità che scala come O(dlogn)O(d \log n) o O(logH)O(\log |H|) a seconda del contesto.

Jian Qian, Jiachen Xu2026-03-03📊 stat

TRAKNN: Efficient Trajectory Aware Spatiotemporal kNN for Rare Meteorological Trajectory Detection

Il paper presenta TRAKNN, un framework non supervisionato ed efficiente che utilizza un approccio kNN esatto basato sulla ricorrenza per rilevare traiettorie atmosferiche rare e geometricamente significative in grandi dataset spaziotemporali, superando le sfide computazionali tradizionali e identificando con successo anomalie coerenti con eventi meteorologici estremi.

Guillaume Coulaud, Davide Faranda2026-03-03📊 stat

Scaling Laws of SignSGD in Linear Regression: When Does It Outperform SGD?

Questo studio analizza le leggi di scalabilità di signSGD nella regressione lineare, dimostrando che, grazie a effetti unici di normalizzazione della deriva e rimodellamento del rumore, il metodo può superare SGD in termini di pendenza ottimale di calcolo in regimi dominati dal rumore, specialmente quando si utilizza un programma di apprendimento WSD con decadimento rapido delle caratteristiche.

Jihwan Kim, Dogyoon Song, Chulhee Yun2026-03-03📊 stat

Adam Converges Without Any Modification On Update Rules

Questo lavoro dimostra teoricamente che l'ottimizzatore Adam converge senza modifiche alle sue regole di aggiornamento, identificando una transizione di fase dipendente dal problema e dalla dimensione del batch nello spazio dei parametri (β1,β2)(\beta_1, \beta_2) e fornendo linee guida pratiche per la loro sintonizzazione che sono state validate empiricamente nel training di modelli linguistici su larga scala.

Yushun Zhang, Bingran Li, Congliang Chen + 2 more2026-03-03🔢 math

Instrumental and Proximal Causal Inference with Gaussian Processes

Il paper propone un quadro basato su Processi Gaussiani Decondizionati (DGP) per l'inferenza causale con variabili strumentali e proxy, colmando la lacuna nella quantificazione dell'incertezza epistemica e offrendo una soluzione unificata che garantisce precisione predittiva, selezione del modello e stime di incertezza ben calibrate in presenza di confondimento non osservato.

Yuqi Zhang, Krikamol Muandet, Dino Sejdinovic + 2 more2026-03-03📊 stat