Efficient Approximation to Analytic and functions by Height-Augmented ReLU Networks
Diese Arbeit überwindet fundamentale Grenzen der neuronalen Approximationstheorie, indem sie eine dreidimensionale ReLU-Architektur einführt, die durch effiziente Sägezahn-Funktionen exponentielle Approximationsraten für analytische Funktionen und erstmals quantitative, nicht-asymptotische Ergebnisse für allgemeine -Funktionen ermöglicht.