Step-Size Decay and Structural Stagnation in Greedy Sparse Learning
Este artigo investiga como o decaimento excessivo da taxa de aprendizado em algoritmos gananciosos para aprendizado esparsos leva à estagnação estrutural, mesmo em configurações de baixa dimensão, demonstrando que a coerência das características desempenha um papel crucial na definição de limites inferiores para o erro de resíduo.