Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Die vorgestellte Arbeit führt Batch Normalization ein, eine Methode zur Normalisierung von Layereingaben in neuronalen Netzen, die das Problem des internen Kovariaten-Shifts löst, das Training durch höhere Lernraten und weniger sorgfältige Initialisierung erheblich beschleunigt und als Regularisierer dient, wodurch auf dem ImageNet-Datensatz ein neuer Rekord mit einer Top-5-Fehlerrate von 4,9 % erzielt wird.

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG