Efficient Approximation to Analytic and functions by Height-Augmented ReLU Networks
Ce papier démontre qu'une architecture de réseau de neurones à trois dimensions utilisant des fonctions d'activation ReLU augmentées en hauteur permet d'atteindre des taux d'approximation exponentiels améliorés pour les fonctions analytiques et une approximation quantitative non asymptotique d'ordre élevé pour les fonctions , offrant ainsi une voie théorique pour concevoir des réseaux plus économes en paramètres.