Neural Networks Generalize on Low Complexity Data
Cet article démontre que les réseaux de neurones feedforward à activation ReLU, lorsqu'ils sont sélectionnés selon le principe de la longueur minimale de description (MDL) pour interpoler des données générées par un langage de programmation simple, parviennent à généraliser avec une haute probabilité, même sur des tâches complexes comme le test de primalité.