Efficient Approximation to Analytic and functions by Height-Augmented ReLU Networks
Este trabajo demuestra que una arquitectura de red neuronal tridimensional con activaciones ReLU aumentadas por altura permite aproximar funciones analíticas y con tasas exponenciales mejoradas y de manera no asintótica, superando limitaciones fundamentales en la teoría de aproximación y ofreciendo diseños de redes más eficientes en parámetros.