Leave-One-Out Prediction for General Hypothesis Classes

Il paper introduce la procedura di aggregazione MLSA per stabilire un'ineguaglianza oracolare moltiplicativa per l'errore di previsione leave-one-out in classi di ipotesi generali, dimostrando che tale errore è limitato da una costante moltiplicata per il rischio empirico minimo più un termine di complessità che scala come O(dlogn)O(d \log n) o O(logH)O(\log |H|) a seconda del contesto.

Jian Qian, Jiachen Xu2026-03-03📊 stat

TRAKNN: Efficient Trajectory Aware Spatiotemporal kNN for Rare Meteorological Trajectory Detection

Il paper presenta TRAKNN, un framework non supervisionato ed efficiente che utilizza un approccio kNN esatto basato sulla ricorrenza per rilevare traiettorie atmosferiche rare e geometricamente significative in grandi dataset spaziotemporali, superando le sfide computazionali tradizionali e identificando con successo anomalie coerenti con eventi meteorologici estremi.

Guillaume Coulaud, Davide Faranda2026-03-03📊 stat

Scaling Laws of SignSGD in Linear Regression: When Does It Outperform SGD?

Questo studio analizza le leggi di scalabilità di signSGD nella regressione lineare, dimostrando che, grazie a effetti unici di normalizzazione della deriva e rimodellamento del rumore, il metodo può superare SGD in termini di pendenza ottimale di calcolo in regimi dominati dal rumore, specialmente quando si utilizza un programma di apprendimento WSD con decadimento rapido delle caratteristiche.

Jihwan Kim, Dogyoon Song, Chulhee Yun2026-03-03📊 stat

Adam Converges Without Any Modification On Update Rules

Questo lavoro dimostra teoricamente che l'ottimizzatore Adam converge senza modifiche alle sue regole di aggiornamento, identificando una transizione di fase dipendente dal problema e dalla dimensione del batch nello spazio dei parametri (β1,β2)(\beta_1, \beta_2) e fornendo linee guida pratiche per la loro sintonizzazione che sono state validate empiricamente nel training di modelli linguistici su larga scala.

Yushun Zhang, Bingran Li, Congliang Chen + 2 more2026-03-03🔢 math

Instrumental and Proximal Causal Inference with Gaussian Processes

Il paper propone un quadro basato su Processi Gaussiani Decondizionati (DGP) per l'inferenza causale con variabili strumentali e proxy, colmando la lacuna nella quantificazione dell'incertezza epistemica e offrendo una soluzione unificata che garantisce precisione predittiva, selezione del modello e stime di incertezza ben calibrate in presenza di confondimento non osservato.

Yuqi Zhang, Krikamol Muandet, Dino Sejdinovic + 2 more2026-03-03📊 stat

From Reachability to Learnability: Geometric Design Principles for Quantum Neural Networks

Questo studio ridefinisce la progettazione delle reti neurali quantistiche passando dalla semplice raggiungibilità degli stati alla geometria controllabile delle rappresentazioni nascoste, introducendo il criterio di quasi completa selettività locale (aCLS) per dimostrare che l'apprendimento delle caratteristiche richiede una dipendenza congiunta tra dati e pesi addestrabili, garantendo così migliori prestazioni con minori risorse computazionali.

Vishal S. Ngairangbam, Michael Spannowsky2026-03-03⚛️ quant-ph

Data Augmentation via Mixed Class Interpolation using Cycle-Consistent Generative Adversarial Networks Applied to Cross-Domain Imagery

Questo articolo propone e valuta un nuovo metodo di aumento dei dati basato sull'interpolazione di classi miste tramite CycleGAN (C2GMA) per generare immagini non visibili a partire da quelle visibili, migliorando significativamente l'accuratezza della classificazione nel dominio SAR rispetto alle strategie tradizionali.

Hiroshi Sasaki, Chris G. Willcocks, Toby P. Breckon2026-03-02🤖 cs.LG

Gradient is All You Need? How Consensus-Based Optimization can be Interpreted as a Stochastic Relaxation of Gradient Descent

Questo articolo dimostra che l'ottimizzazione basata sul consenso (CBO) può essere interpretata come una rilassazione stocastica della discesa del gradiente, spiegando così il suo successo nel superare le barriere energetiche nelle funzioni non convesse e rivelando una natura intrinseca di discesa del gradiente anche nei metodi privi di derivata.

Konstantin Riedl, Timo Klock, Carina Geldhauser + 1 more2026-03-02🤖 cs.LG