XConv: Low-memory stochastic backpropagation for convolutional layers
O artigo propõe o XConv, uma camada de convolução de substituição direta que reduz significativamente o uso de memória durante o treinamento de redes neurais convolucionais ao armazenar ativações comprimidas e aproximar gradientes via estimativa de traço aleatória, mantendo a compatibilidade com arquiteturas existentes e garantindo desempenho comparável aos métodos de gradiente exato.