Efficient Approximation to Analytic and functions by Height-Augmented ReLU Networks
Este trabalho demonstra que uma arquitetura de rede neural tridimensional baseada em funções ReLU permite aproximações exponencialmente mais eficientes e de alta ordem para funções analíticas e , superando limitações teóricas anteriores e oferecendo um caminho para redes mais parcimoniosas em parâmetros.