Neural Networks Generalize on Low Complexity Data
Il documento dimostra che le reti neurali feedforward con attivazione ReLU, selezionate tramite il principio della minima descrizione lunghezza (MDL) per interpolare dati generati da un linguaggio di programmazione semplice, generalizzano con alta probabilità su compiti computazionali come il test di primalità, anche in presenza di rumore.