MCMC Informed Neural Emulators for Uncertainty Quantification in Dynamical Systems

Questo articolo propone un approccio che disaccoppia la quantificazione dell'incertezza dall'architettura della rete neurale, integrando la distribuzione dei parametri del modello come input tramite Markov Chain Monte Carlo (MCMC) per creare emulatori neurali efficienti e agnostici che riducono i tempi di calcolo mantenendo la precisione dell'incertezza dei modelli fisici sottostanti.

Heikki Haario, Zhi-Song Liu, Martin Simon, Hendrik Weichel2026-03-12🤖 cs.LG

Bayesian Optimization with Gaussian Processes to Accelerate Stationary Point Searches

Questo articolo presenta un quadro unificato di ottimizzazione bayesiana basato su processi gaussiani che, attraverso un ciclo di surrogate a sei passaggi e tecniche avanzate come l'ottimizzazione del trasporto e le caratteristiche di Fourier casuali, accelera l'identificazione di punti stazionari su superfici di energia potenziale riducendo drasticamente il numero di valutazioni necessarie.

Rohit Goswami (Institute IMX and Lab-COSMO, École polytechnique fédérale de Lausanne)2026-03-12📊 stat

Factorized Neural Implicit DMD for Parametric Dynamics

Il paper propone un approccio basato su campi neurali impliciti fattorizzati per la decomposizione spettrale dell'operatore di Koopman, consentendo la previsione stabile a lungo termine, l'interpolazione parametrica e l'analisi spettrale di sistemi dinamici complessi senza richiedere la conoscenza esplicita delle equazioni governative.

Siyuan Chen, Zhecheng Wang, Yixin Chen, Yue Chang, Peter Yichen Chen, Eitan Grinspun, Jonathan Panuelos2026-03-12🤖 cs.LG

Cross-Species Transfer Learning for Electrophysiology-to-Transcriptomics Mapping in Cortical GABAergic Interneurons

Questo studio replica ed estende il framework di mappatura da elettrofisiologia a trascrittomica per gli interneuroni GABAergici, dimostrando che un modello di apprendimento profondo basato su attenzione può eguagliare le prestazioni dei metodi tradizionali e che l'addestramento trasversale dai dati murini a quelli umani migliora significativamente la previsione delle sottoclassi neuronali.

Theo Schwider, Ramin Ramezani2026-03-12🧬 q-bio

Leech Lattice Vector Quantization for Efficient LLM Compression

Questo articolo presenta la Leech Lattice Vector Quantization (LLVQ), un algoritmo pratico che sfrutta il reticolo di Leech a 24 dimensioni per comprimere i grandi modelli linguistici con prestazioni all'avanguardia, superando metodi recenti come Quip# e QTIP grazie a una ricerca angolare efficiente e a un kernel di dequantizzazione completamente parallelizzabile.

Tycho F. A. van der Ouderaa, Mart van Baalen, Paul Whatmough, Markus Nagel2026-03-12🤖 cs.LG

Neural Field Thermal Tomography: A Differentiable Physics Framework for Non-Destructive Evaluation

Il paper presenta NeFTY, un framework di fisica differenziabile che utilizza campi neurali per ricostruire con precisione le proprietà materiali 3D e localizzare difetti sotterranei analizzando misurazioni termiche superficiali transitorie, superando i limiti dei metodi tradizionali e delle PINN a vincoli morbidi.

Tao Zhong, Yixun Hu, Dongzhe Zheng, Aditya Sood, Christine Allen-Blanchette2026-03-12🔬 cond-mat.mtrl-sci

A Survey on Decentralized Federated Learning

Questo lavoro presenta un'analisi sistematica dell'apprendimento federato decentralizzato (DFL) fino al 2026, proponendo una tassonomia unificata basata sulle sfide affrontate, valutando le pratiche di valutazione attuali e delineando future direzioni di ricerca per migliorare sicurezza, privacy e meccanismi di incentivo in ambienti privi di coordinatore centrale.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele Tolomei2026-03-11🤖 cs.LG

Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps

Questo articolo presenta un approccio basato sull'apprendimento profondo che combina la scoperta di coordinate e mappe di flusso per migliorare l'efficienza computazionale nella simulazione di sistemi multiscala complessi, ottenendo alta accuratezza predittiva a costi ridotti su modelli come Fitzhugh-Nagumo e Kuramoto-Sivashinsky.

Asif Hamid, Danish Rafiq, Shahkar Ahmad Nahvi, Mohammad Abid Bazaz2026-03-11🤖 cs.LG

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Questo paper introduce un quadro unificato che modella la quantizzazione e la sparsificazione come rumore additivo, proponendo una trasformata di dequantizzazione basata sulla regressione ridge per fornire un percorso di gradiente ben definito che permette l'addestramento stabile di reti neurali ad alta efficienza con precisione arbitraria e livelli di sparsità estremi, superando i limiti degli approcci esistenti come lo Straight-Through Estimator.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew Howard2026-03-11🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

Il paper presenta ARLBench, un benchmark flessibile ed efficiente per l'ottimizzazione degli iperparametri nel reinforcement learning, progettato per facilitare il confronto tra diversi metodi di AutoRL riducendo drasticamente i requisiti computazionali necessari.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa Eimer2026-03-11🤖 cs.LG