Rethinking Continual Learning with Progressive Neural Collapse

이 논문은 기존 continual learning 의 고정된 ETF 한계를 극복하고, 새로운 작업이 추가될 때마다 ETF 를 점진적으로 확장하여 클래스 간 최대 분리성을 보장하는 'Progressive Neural Collapse (ProNC)'라는 새로운 프레임워크를 제안하고, 이를 통해 재학습 방지와 성능 향상을 동시에 달성함을 보여줍니다.

Zheng Wang, Wanhao Yu, Li Yang, Sen Lin

게시일 2026-03-10
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

"지식 누수"를 막는 새로운 학습법: ProNC (점진적 신경 붕괴)

이 논문은 인공지능이 **새로운 것을 배우면서 예전에 배운 것을 잊어버리는 문제 (재앙적 망각, Catastrophic Forgetting)**를 해결하기 위한 새로운 방법을 제안합니다.

이 복잡한 기술을 쉽게 이해할 수 있도록 도서관지도에 비유해서 설명해 드리겠습니다.


1. 문제 상황: 도서관의 혼란

인공지능 (AI) 이 새로운 책 (새로운 데이터) 을 계속 읽게 되면, 기존에 정리해 두었던 책들이 엉망이 되거나 사라지는 경우가 많습니다. 이를 **'재앙적 망각'**이라고 합니다.

기존 연구들은 이 문제를 해결하기 위해 **"최종 도서관의 전체 지도 (ETF)"**를 미리 만들어두고, 모든 책이 그 지도의 특정 위치에 딱 맞춰져야 한다고 강요했습니다.

  • 비유: 도서관이 100 권의 책만 가질지, 100 만 권의 책이 될지 미리 정해두고, 처음 들어오는 책부터 마지막 책까지 그 거대한 지도의 빈칸에 억지로 끼워 넣는 방식입니다.
  • 단점:
    1. 미래에 몇 권의 책이 들어올지 미리 알 수 없으니 지도를 미리 만드는 게 불가능합니다.
    2. 지도가 너무 커지면 책들 사이의 간격이 너무 좁아져서 책들을 구별하기 어려워집니다.
    3. 처음 들어온 책과 나중에 들어온 책이 서로 다른 위치에 있어야 하는데, 고정된 지도 때문에 책들이 서로 겹치거나 밀려납니다.

2. 새로운 해결책: ProNC (점진적 신경 붕괴)

이 논문은 **"지도는 책이 들어올 때마다 조금씩 확장하자"**는 아이디어를 제안합니다. 이를 **ProNC(점진적 신경 붕괴)**라고 부릅니다.

핵심 아이디어 1: 첫 번째 책으로 시작하기

  • 기존 방식: 빈 도서관에 미리 거대한 지도를 그려놓고 시작함.
  • ProNC 방식: 첫 번째 책 (첫 번째 학습 단계) 을 읽고 나면, 그 책들이 자연스럽게 모여 있는 모양을 보고 그때그때 맞는 작은 지도를 먼저 그립니다.
  • 비유: 처음에는 10 권의 책만 있으니 10 칸짜리 작은 선반을 만들고, 책들이 그 선반에 딱 맞게 정리되도록 돕습니다.

핵심 아이디어 2: 책이 들어올 때마다 선반을 늘리기

  • 새로운 책 (새로운 작업) 이 들어오면, 기존에 정리된 책들을 건드리지 않으면서 새로운 선반 칸을 추가합니다.
  • 이때 중요한 것은, 기존 책들의 위치를 최대한 유지하면서 새로운 책들이 들어갈 공간을 만드는 것입니다.
  • 비유: 10 칸짜리 선반이 20 칸으로 늘어나는 상황입니다. 기존 10 권의 책은 제자리에 머물러 있고, 새로운 10 권의 책이 옆에 깔끔하게 추가됩니다. 이렇게 하면 책들이 서로 섞이지 않고, 모든 책이 서로 최대한 멀리 떨어져서 정리됩니다.

3. 어떻게 작동할까요? (두 가지 전략)

이 시스템은 두 가지 규칙을 따릅니다:

  1. 정렬 (Alignment): 새로운 책이 들어오면, 그 책이 새로 만들어진 선반 칸 (목표 위치) 에 딱 맞게 정리되도록 돕습니다.
  2. 기억 유지 (Distillation): 새로운 선반을 만들 때, 예전에 정리된 책들이 제자리를 잃지 않도록 "기억"을 유지시켜 줍니다. 마치 도서관 사서가 "이 책들은 원래 여기 있었어, 절대 옮기지 마!"라고 지키는 것과 같습니다.

4. 왜 이것이 더 좋은가요?

  • 유연함: 도서관이 10 권이든 100 만 권이든 상관없이, 책이 들어올 때마다 지도를 자연스럽게 확장합니다. 미리 정해진 숫자에 구애받지 않습니다.
  • 명확함: 모든 책 (데이터) 이 서로 최대한 멀리 떨어져서 정리되므로, AI 가 어떤 책이 어떤 책인지 구별하기 훨씬 쉬워집니다.
  • 효율성: 불필요한 계산 없이, 필요한 만큼만 지도를 확장하므로 빠르고 정확합니다.

5. 실험 결과: 실제로 효과가 있을까요?

연구진은 이 방법을 다양한 데이터 (이미지 분류 등) 로 테스트했습니다.

  • 결과: 기존에 가장 잘하던 방법들보다 정확도가 훨씬 높았고, 특히 기억을 잃는 정도 (망각) 가 현저히 줄었습니다.
  • 재미있는 사실: 심지어 기억을 저장해 두는 공간 (메모리 버퍼) 을 거의 쓰지 않아도 다른 방법들보다 잘 작동했습니다. 즉, "기억"을 굳이 많이 저장하지 않아도, 잘 정리된 "지도"만 있으면 AI 는 잊지 않고 잘 배웁니다.

요약

이 논문은 **"AI 가 새로운 것을 배울 때, 미리 정해진 거대한 틀에 억지로 끼워 넣지 말고, 배운 것들이 자연스럽게 모여서 정리되도록 지도를 조금씩 확장해 주자"**고 말합니다.

마치 성장하는 도서관처럼, 책이 들어올 때마다 선반을 늘리고 기존 책들을 제자리에 지키게 함으로써, AI 가 평생 동안 모든 지식을 잃지 않고 깔끔하게 정리할 수 있게 해주는 혁신적인 방법입니다.