Some Super-approximation Rates of ReLU Neural Networks for Korobov Functions
Este artigo estabelece limites de erro de super-aproximação quase ótimos para redes neurais ReLU na aproximação de funções de Korobov, demonstrando que sua expressividade é praticamente imune à maldição da dimensionalidade ao utilizar elementos finitos em grades esparsas e a técnica de extração de bits.