Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Il paper introduce la Batch Normalization, una tecnica che accelera l'addestramento delle reti neurali profonde riducendo lo spostamento interno della covariata attraverso la normalizzazione degli input di ogni layer, permettendo l'uso di tassi di apprendimento più elevati, migliorando la regolarizzazione e raggiungendo risultati di classificazione su ImageNet superiori a quelli umani.

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG