Representation Finetuning for Continual Learning
O artigo apresenta o CoRe, um novo paradigma de ajuste fino que opera no espaço de representações em vez do espaço de pesos, utilizando intervenções em subespaços lineares de baixo posto para alcançar eficiência paramétrica superior e mitigar o esquecimento catastrófico no aprendizado contínuo.