Why Do Neural Networks Forget: A Study of Collapse in Continual Learning

본 논문은 continual learning 에서의 망각과 구조적 붕괴 (collapse) 가 효과적 차원 (eRank) 감소를 통해 밀접하게 연관되어 있음을 MLP, ResNet-18 등 다양한 아키텍처와 학습 전략을 통해 실증적으로 규명했습니다.

Yunqin Zhu, Jun Jin

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 주제: "AI 가 잊어버리는 진짜 이유: '뇌'가 꽉 차서"

우리가 보통 AI 가 새로운 것을 배울 때 예전 것을 잊는 이유는 "새로운 정보가 덮어쓰기 때문"이라고 생각하기 쉽습니다. 하지만 이 논문은 **"그게 아니라, AI 의 뇌 (모델) 자체가 너무 좁아져서 새로운 공간을 만들 수 없게 되었기 때문"**이라고 주장합니다.

이를 **'구조적 붕괴 (Collapse)'**라고 부릅니다.

🏗️ 비유 1: AI 의 뇌는 '다목적 창고'입니다

AI 의 내부 구조를 거대한 창고라고 상상해 보세요.

  • 고유한 차원 (eRank): 이 창고에는 물건을 쌓아둘 수 있는 독특한 선반과 공간이 있습니다. 이 공간이 많을수록 (고유한 차원이 높을수록) 다양한 물건 (새로운 지식) 을 깔끔하게 정리할 수 있습니다.
  • 붕괴 (Collapse): 새로운 물건을 계속 쌓다 보면, AI 는 기존 물건을 치우기 위해 선반을 접거나, 여러 물건을 한 선반에 억지로 끼워 넣습니다. 결과적으로 창고의 유효 공간이 줄어들고 (차원 축소), 더 이상 새로운 물건을 넣을 곳이 없어집니다.

이 논문은 **"AI 가 잊어버리는 건, 새로운 것을 배우려다 기존 것을 지운 게 아니라, 창고 공간이 줄어들어 더 이상 새로운 것을 받아들일 능력 (가소성) 을 잃어버렸기 때문"**이라고 말합니다.


🔍 연구 방법: 네 가지 '학습자'와 세 가지 '학습법'

연구진은 네 가지 다른 뇌 구조 (아키텍처) 를 가지고 실험했습니다.

  1. MLP (기본 학습자): 가장 단순한 뇌입니다. 공간이 좁고 쉽게 붕괴됩니다.
  2. ConvGRU & Bi-ConvGRU (기억력 있는 학습자): 과거 정보를 잠시 기억하는 '게이트'가 있는 뇌입니다. 하지만 이 게이트가 정보를 너무 많이 압축해서 오히려 공간이 부족해질 수 있습니다.
  3. ResNet-18 (전문가 학습자): 깊은 층과 '건너뛰기 (Skip connection)' 구조가 있어 초기에는 잘 버티지만, 결국에는 공간이 좁아집니다.

이들에게 세 가지 학습 전략을 적용해 보았습니다.

  1. SGD (방치형): 그냥 새로운 것만 배우고 예전 것은 내팽개칩니다. (가장 망각이 심함)
  2. LwF (출력 통제형): "예전에 하던 답을 똑같이 내놓으라"고 강요합니다. (정답은 비슷하게 나오지만, 내부 공간은 좁아짐)
  3. ER (리플레이형 - 경험 재생): 가장 중요한 전략입니다. 새로운 것을 배울 때, 과거의 중요한 물건 (데이터) 을 꺼내서 함께 정리합니다.

📊 실험 결과: 무엇이 가장 효과적일까?

연구진은 AI 의 '창고 공간'을 측정하는 지표인 **eRank(유효 순위)**를 쫓아갔습니다. eRank 가 떨어지면 창고가 좁아진다는 뜻입니다.

1. 방치형 (SGD) 의 비극

  • 상황: 새로운 물건만 계속 쌓아둡니다.
  • 결과: 창고 공간 (eRank) 이 급격히 줄어들고, 예전 물건들은 다 망가집니다. 완전한 붕괴.

2. 출력 통제형 (LwF) 의 한계

  • 상황: "예전 답은 그대로 내놔!"라고 강요합니다.
  • 결과: 겉보기엔 예전 답을 잘 내지만, 내부 창고는 여전히 좁아집니다. (eRank 감소)
  • 비유: 책상 위에 예전 책들을 그대로 두라고 해서 겉모습은 유지되지만, 책장 속의 책들은 다 구겨져서 새로운 책을 넣을 공간이 없습니다. 결국 장기적으로는 새로운 것을 배우기 힘들어집니다.

3. 경험 재생 (ER) 의 승리

  • 상황: 새로운 것을 배울 때, 과거의 중요한 물건 (데이터) 을 꺼내 함께 정리합니다.
  • 결과: 창고 공간 (eRank) 이 유지되거나 오히려 넓어집니다.
  • 비유: 새로운 물건을 넣을 때, 예전 물건들을 다시 정리해서 공간을 확보합니다. 그래서 예전 것도 잊지 않고, 새로운 것도 잘 받아들일 수 있습니다.

💡 결론: AI 가 잊지 않으려면?

이 논문의 핵심 메시지는 다음과 같습니다.

"AI 가 잊어버리는 건, 단순히 기억을 지우는 게 아니라 '학습할 능력'을 잃어버리는 것입니다."

  • 기억만 지키는 것 (LwF) 은 부족합니다. 겉모습만 유지할 뿐, 내부 공간이 좁아지면 결국 망각이 옵니다.
  • 과거를 함께 학습하는 것 (ER) 이 정답입니다. 새로운 것을 배울 때 과거의 경험을 함께 섞어주면, AI 의 '창고 공간'이 넓게 유지되어 평생 학습 (Continual Learning) 이 가능해집니다.

한 줄 요약:

"AI 가 새로운 것을 배울 때, 과거의 경험을 함께 꺼내 정리해주지 않으면, AI 의 뇌는 공간이 좁아져서 더 이상 새로운 것을 받아들일 능력을 잃어버리게 됩니다. **과거와 현재를 함께 배우는 것 (Experience Replay)**이 AI 가 잊지 않고 성장하는 유일한 길입니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →