Barriers for Learning in an Evolving World: Mathematical Understanding of Loss of Plasticity

이 논문은 동역학 시스템 이론을 기반으로 학습의 유연성 상실 (LoP) 을 활성화 포화 및 표현 중복으로 인한 매니폴드 포획 현상으로 정의하고, 정적 환경에서의 일반화를 촉진하는 특성이 오히려 지속적 학습 환경에서 학습 능력을 저해하는 근본적인 긴장 관계를 규명합니다.

Amir Joudaki, Giulia Lanzillotta, Mohammad Samragh Razlighi, Iman Mirzadeh, Keivan Alizadeh, Thomas Hofmann, Mehrdad Farajtabar, Fartash Faghri

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능이 왜 시간이 지나면 새로운 것을 배우는 능력을 잃어버리는가?"**라는 질문에 대해 수학적으로 깊이 있게 파헤친 연구입니다.

일반적인 딥러닝 모델은 고정된 환경에서는 훌륭하지만, 환경이 계속 변하는 세상 (예: 매일 새로운 뉴스가 나오는 인터넷, 계속 변하는 주식 시장) 에서는 **"학습 능력의 상실 (Loss of Plasticity, LoP)"**이라는 병에 걸립니다. 마치 어린아이가 자라면서 새로운 언어를 배우기 어려워지거나, 뇌가 새로운 기억을 받아들이지 못하게 되는 것과 비슷합니다.

이 논문은 그 원인을 단순히 "데이터가 부족해서"가 아니라, 모델 내부의 구조적 문제로 설명하며, 이를 해결할 방법을 제시합니다.


🧠 핵심 비유: "고정된 길 (Manifold) 에 갇힌 자동차"

이 논문의 가장 중요한 아이디어를 이해하기 위해 자동차와 도로 비유를 사용해 보겠습니다.

  1. 초기 상태 (자유로운 주행):
    학습刚开始할 때, 인공지능 모델은 넓은 평야에 있는 자동차처럼 모든 방향으로 자유롭게 움직일 수 있습니다. 새로운 데이터 (새로운 길) 가 들어오면 어디든 갈 수 있어 유연합니다.

  2. 학습의 함정 (좁은 길로 들어감):
    하지만 모델을 계속 훈련시키면, 모델은 효율성을 위해 스스로를 최적화합니다. 이때 모델은 **"가장 쉬운 길"**이나 **"이미 익숙한 길"**로 진입합니다.

    • 논문에 따르면, 이 길은 매우 좁은 1 차선 도로처럼 변합니다.
    • 일단 이 좁은 길 (수학적 용어로 '다양체, Manifold') 에 진입하면, 자동차는 오직 이 길 위에서만 앞뒤로만 움직일 수 있게 됩니다.
    • 옆으로 꺾거나 새로운 길로 들어갈 수 있는 능력이 사라집니다. 이것이 바로 **학습 능력 상실 (LoP)**입니다.

🚨 왜 이런 일이 일어날까요? (두 가지 주범)

논문은 이 좁은 길에 갇히게 만드는 두 가지 주된 원인을 찾았습니다.

1. "잠자는 직원" (Frozen Units)

  • 상황: 신경망은 수많은 '뉴런 (작은 계산기)'으로 이루어져 있습니다. 학습이 진행되면서 일부 뉴런은 너무 강한 자극을 받아 완전히 잠들어버립니다. (활성화 함수가 0 이 되어 더 이상 반응하지 않음).
  • 비유: 마치 회사에 있는 직원 중 일부가 "아, 나는 이제 아무 일도 안 해도 돼"라고 생각해서 영구 휴가를 간 것과 같습니다.
  • 결과: 이 직원들이 잠들면, 그들과 연결된 모든 길은 막힙니다. 모델은 더 이상 그 부분을 통해 새로운 정보를 처리할 수 없게 됩니다.

2. "쌍둥이 복제" (Cloned Units)

  • 상황: 모델이 효율을 위해 서로 다른 뉴런들이 완전히 똑같은 역할을 하도록 만듭니다.
  • 비유: 회사에 100 명의 직원이 있는데, 사실은 10 명의 직원만 일하고 나머지 90 명은 그 10 명이 하는 일을 똑같이 따라 하는 복제인 상태입니다.
  • 결과: 겉보기엔 직원이 많지만, 실제로는 10 명만 일하는 것과 똑같습니다. 모델의 '실제 능력 (차원)'은 줄어들고, 새로운 일을 배우기 위해 필요한 다양한 관점이 사라집니다.

⚖️ 아이러니한 진실: "잘하는 게 나쁜 것"이 될 수 있다

이 논문이 가장 흥미롭게 지적한 점은 아이러니입니다.

  • 기존의 생각: "모델이 잘 작동하려면 복잡한 정보를 단순화하고, 중복을 제거해야 해 (저랭크 구조)." -> 이것이 일반화 (Generalization) 에 좋다고 알려져 있습니다.
  • 논문의 발견: "그런데 이 단순화와 중복 제거가 바로 모델을 그 좁은 길 (LoP) 로 밀어넣는 주범이야!"
  • 비유: "효율성을 위해 회사 인원을 줄이고 업무 프로세스를 단순화하는 건 좋지만, 그 결과 회사가 너무 경직되어 새로운 시장 변화에 대응할 수 없게 되는 것"과 같습니다.

🛠️ 어떻게 해결할까요? (탈출 방법)

모델이 이 좁은 길에 갇혔을 때, 어떻게 다시 넓은 세상으로 나올 수 있을까요? 논문은 두 가지 방법을 제안합니다.

  1. 예방책: "규칙적인 스트레칭" (Normalization)

    • 뉴런들이 너무 강하게 자극받지 않도록, 입력값을 적절히 조절해 주는 정규화 (Normalization) 기술을 사용하면, 뉴런이 잠들거나 복제되는 것을 막을 수 있습니다.
    • 비유: 직원들이 너무 과로하지 않도록 적절히 휴식을 취하게 하고, 업무 강도를 조절해 주는 것과 같습니다.
  2. 치료책: "의도적인 혼란" (Perturbation/Noise)

    • 이미 갇혀버린 모델은, 의도적으로 약간의 소음 (Noise) 을 주거나, 일부 뉴런을 잠시 끄는 (Dropout) 방법을 써야 탈출할 수 있습니다.
    • 비유: 자동차가 좁은 길에 갇혔을 때, 그냥 앞만 보고 운전하면 안 됩니다. 의도적으로 핸들을 살짝 흔들거나, 차를 살짝 밀어서 (소음/노이즈) 옆으로 비켜날 수 있는 틈을 만들어야 합니다.
    • 실험 결과, 약간의 소음을 주거나 확률적으로 뉴런을 끄는 (Dropout) 기술을 쓰면, 모델이 다시 새로운 길을 찾아낼 수 있었습니다.

💡 결론: 평생 학습을 위한 열쇠

이 논문의 핵심 메시지는 다음과 같습니다.

"인공지능이 평생 학습 (Lifelong Learning) 을 하려면, 단순히 '잘하는 것'을 추구해서는 안 됩니다. 오히려 '유연함'을 유지할 수 있도록 의도적으로 시스템을 흔들고, 다양성을 보호해야 합니다."

우리가 매일 새로운 것을 배우고 적응해야 하는 세상에서 살아가는 것처럼, 인공지능도 고정된 지식을 쌓는 것이 아니라 계속 변하는 환경에 맞춰 유연하게 진화할 수 있는 능력을 갖춰야 진정한 지능이 될 수 있다는 것입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →