Smoothness Adaptivity in Constant-Depth Neural Networks: Optimal Rates via Smooth Activations
Cet article démontre que les réseaux de neurones à profondeur constante dotés d'activations lisses atteignent des taux d'erreur optimaux pour l'approximation et l'estimation de fonctions de Sobolev en ajustant uniquement leur largeur, offrant ainsi une adaptabilité à la régularité que les activations non lisses comme ReLU ne peuvent garantir sans augmenter la profondeur.