Protecting Federated Learning from Extreme Model Poisoning Attacks via Multidimensional Time Series Anomaly Detection

Il lavoro presenta FLANDERS, un nuovo filtro pre-aggregazione per l'apprendimento federato che utilizza un modello di previsione autoregressiva su serie temporali multidimensionali per identificare e scartare aggiornamenti malevoli, garantendo robustezza anche quando i client maligni superano in numero quelli legittimi.

Edoardo Gabrielli, Dimitri Belli, Zoe Matrullo + 2 more2026-03-03📊 stat

FengWu: Pushing the Skillful Global Medium-range Weather Forecast beyond 10 Days Lead

Il paper presenta FengWu, un avanzato sistema di previsione meteorologica globale a medio termine basato sull'intelligenza artificiale che, grazie a un'architettura multi-modale e multi-task addestrata su 39 anni di dati, supera le prestazioni di GraphCast estendendo la finestra di previsione affidabile a oltre 10 giorni con un costo computazionale estremamente ridotto.

Kang Chen, Tao Han, Junchao Gong + 11 more2026-03-03🤖 cs.AI

Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming

Questo articolo presenta nuovi limiti di complessità del campione privi di entropia metrica per l'approssimazione della media campionaria nella programmazione stocastica convessa, dimostrando che tale metodo raggiunge un'efficienza di campionamento paragonabile a quella del discesa dello specchio stocastico e offrendo vantaggi teorici e pratici anche in scenari non lipschitziani.

Hongcheng Liu, Jindong Tong2026-03-03📊 stat

Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning

Questo lavoro propone un nuovo modello causale parziale latente per l'apprendimento multimodale che, superando i limiti dei DAG tradizionali, dimostra teoricamente e verifica sperimentalmente come l'apprendimento contrastivo multimodale (MMCL) e modelli pre-addestrati come CLIP possano generare rappresentazioni disaccoppiate robuste, migliorando l'apprendimento con pochi esempi e la generalizzazione di dominio.

Yuhang Liu, Zhen Zhang, Dong Gong + 6 more2026-03-03🤖 cs.LG

Distributional Priors Guided Diffusion for Generating 3D Molecules in Low Data Regimes

Il documento presenta GODD, un modello di diffusione basato su autoencoder asimmetrici equivarianti che, guidato da prior strutturali distribuzionali, permette di generare molecole 3D in regioni sparsamente rappresentate addestrandosi su dati abbondanti, migliorando significativamente il successo nella generazione di strutture chimiche fuori distribuzione e nelle applicazioni di scoperta di farmaci.

Haokai Hong, Wanyu Lin, Ming Yang + 1 more2026-03-03🧬 q-bio

Changing the Training Data Distribution to Reduce Simplicity Bias Improves In-distribution Generalization

Questo lavoro propone il metodo USEFUL, che riduce il pregiudizio verso la semplicità modificando la distribuzione dei dati di addestramento tramite un campionamento mirato basato sull'output iniziale della rete, migliorando così la generalizzazione in-distribuzione e ottenendo prestazioni state-of-the-art su diversi dataset e architetture.

Dang Nguyen, Paymon Haddad, Eric Gan + 1 more2026-03-03🤖 cs.AI

Astral: training physics-informed neural networks with error majorants

Il paper propone "Astral", una nuova funzione di perdita per le reti neurali fisicamente informate basata su maggioranti dell'errore che, a differenza della minimizzazione del residuo, fornisce una stima diretta e affidabile dell'errore, permettendo un controllo preciso della precisione della soluzione e dimostrando una convergenza più rapida e un errore inferiore in vari problemi di equazioni alle derivate parziali.

Vladimir Fanaskov, Tianchi Yu, Alexander Rudikov + 1 more2026-03-03🔬 physics

The GeometricKernels Package: Heat and Matérn Kernels for Geometric Learning on Manifolds, Meshes, and Graphs

Il paper presenta GeometricKernels, un pacchetto Python che implementa i kernel geometrici analoghi a quelli euclidei (come il calore e Matérn) per l'apprendimento su varietà, mesh e grafi, consentendo il calcolo efficiente delle loro espansioni e il supporto per la differenziazione automatica su più framework.

Peter Mostowsky, Vincent Dutordoir, Iskander Azangulov + 6 more2026-03-03📊 stat