Approximation Error and Complexity Bounds for ReLU Networks on Low-Regular Function Spaces

Questo lavoro dimostra che le reti neurali ReLU possono approssimare una vasta classe di funzioni limitate con regolarità minima, ottenendo un errore di approssimazione inversamente proporzionale al prodotto di larghezza e profondità della rete, grazie a una prova costruttiva che eredita i limiti di complessità dalle reti residuali a caratteristiche di Fourier.

Owen Davis, Gianluca Geraci, Mohammad Motamed2026-02-27🤖 cs.LG

From Raw Data to Reliable Predictions: The Significance of Data Processing in COVID-19 Modelling

Questo studio dimostra che l'implementazione di una pipeline di preelaborazione dei dati personalizzata, che include la trasformazione dei totali settimanali in aggiornamenti giornalieri, il rilevamento localizzato degli outlier, la verifica delle dipendenze computazionali e la selezione iterativa delle caratteristiche, migliora significativamente l'accuratezza dei modelli predittivi sulla mortalità da COVID-19 rispetto alle metodologie standard.

Sangita Das, Subhrajyoti Maji2026-02-27✓ Author reviewed 🤖 cs.LG

Decision MetaMamba: Enhancing Selective SSM in Offline RL with Heterogeneous Sequence Mixing

Il paper presenta Decision MetaMamba, un'architettura innovativa per l'apprendimento per rinforzo offline che, sostituendo il mixer di token Mamba con un mixer di sequenze denso e modificando la struttura posizionale, risolve il problema della perdita di informazioni durante la scansione selettiva, ottenendo prestazioni all'avanguardia con un footprint parametrico ridotto.

Wall Kim, Chaeyoung Song, Hanul Kim2026-02-27🤖 cs.AI