Efficient Approximation to Analytic and functions by Height-Augmented ReLU Networks
Questo lavoro dimostra che un'architettura di rete neurale tridimensionale basata su funzioni ReLU arricchite dall'altezza supera i limiti teorici esistenti, consentendo tassi di approssimazione esponenziali per funzioni analitiche e fornendo per la prima volta una stima quantitativa non asintotica di ordine elevato per funzioni generiche in .