XConv: Low-memory stochastic backpropagation for convolutional layers
Die Arbeit stellt XConv vor, eine nahtlos integrierbare Methode zur drastischen Reduzierung des Speicherverbrauchs beim Training von Faltungsschichten durch komprimierte Aktivierungen und stochastische Gradientenschätzung, ohne dabei die Architektur einzuschränken oder die Leistung signifikant zu beeinträchtigen.