Activation Function Design Sustains Plasticity in Continual Learning

이 논문은 continual learning 환경에서 모델의 적응 능력 (가소성) 저하를 완화하기 위해 활성화 함수의 형태와 포화 특성을 분석하여 새로운 비선형 함수를 제안하고, 다양한 과목과 강화학습 환경에서 그 유효성을 입증했습니다.

Lute Lillo, Nick Cheney

게시일 2026-03-02
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

지치지 않는 뇌를 만드는 비법: "활성화 함수"의 새로운 디자인

이 논문은 인공지능 (AI) 이 새로운 것을 배우면서도 예전 지식을 잊어버리지 않고, 동시에 계속 유연하게 적응할 수 있게 만드는 방법을 연구했습니다.

기존의 AI 연구는 "한 번에 모든 것을 배우는 상황 (정적 데이터)"에 집중했지만, 이 논문은 **실제 세상처럼 끊임없이 변하는 상황 (지속적 학습)**에서 AI 가 왜 지쳐버리는지, 그리고 어떻게 해결할지 파헤쳤습니다.

핵심 내용을 일상적인 비유로 설명해 드리겠습니다.


1. 문제: AI 의 '학습 피로'와 '경직된 뇌'

AI 가 새로운 일을 배울 때 두 가지 문제가 생깁니다.

  1. 과거 망각 (Catastrophic Forgetting): 새 것을 배우면 예전 것을 잊어버림.
  2. 학습 능력 상실 (Loss of Plasticity): 예전 지식은 남아있는데, 새로운 것을 더 이상 배울 수 있는 능력 (유연성) 을 잃어버림.

이 논문은 두 번째 문제, 즉 **"AI 가 왜 새로운 것을 배우는 걸 멈추는지?"**에 주목했습니다.

비유:
imagine AI 를 새로운 요리 레시피를 배우는 요리사라고 생각해보세요.

  • 기존 방식 (ReLU 등): 요리사가 새로운 재료를 만지면, 손이 굳어버려서 더 이상 칼질이나 볶음을 할 수 없게 됩니다. (학습 피로)
  • 결과: 요리사는 예전 레시피는 기억하지만, 새로운 메뉴를 만들려고 하면 손이 떨려서 실패합니다.

2. 원인: '활성화 함수'라는 스위치의 결함

AI 의 뇌 (신경망) 안에는 수많은 '뉴런'이 있고, 그 뉴런들이 신호를 전달할 때 **활성화 함수 (Activation Function)**라는 문이 있습니다. 이 문이 어떻게 열리고 닫히느냐에 따라 학습이 결정됩니다.

기존에 쓰이던 문 (ReLU 등) 은 다음과 같은 문제가 있었습니다.

  • 문 잠금 현상: 입력 신호가 일정 수준 이하로 떨어지면, 문이 완전히 잠겨버려서 신호가 통과하지 못합니다. (뉴런이 '죽음' 상태가 됨)
  • 경직된 문: 문이 너무 딱딱해서, 환경이 바뀌어도 (예: 재료가 달라져도) 문이 유연하게 열리지 않습니다.

3. 해결책: '골디락스 존'과 부드러운 문

연구진은 이 문제를 해결하기 위해 두 가지 핵심 원칙을 발견했습니다.

① 골디락스 존 (Goldilocks Zone): "너무 세지도, 너무 약하지도 않게"

문 (뉴런) 이 열릴 때의 '반응력'이 중요합니다.

  • 너무 약하면: 신호가 안 들어와서 뉴런이 죽습니다.
  • 너무 강하면: 뇌가 너무 경직되어서 새로운 패턴을 받아들이지 못합니다.
  • 적당할 때 (골디락스): **약간의 누수 (Leak)**가 있는 상태가 가장 좋습니다. 완전히 잠기지 않고, 아주 작은 신호라도 계속 통과시켜주는 '약간의 틈'이 있어야 AI 는 계속 학습할 수 있습니다.

비유:
마치 방음벽을 생각해보세요.

  • 완전히 밀폐된 방 (기존 방식) 은 소리가 안 들리지만, 내부 공기가 썩어버립니다.
  • 완전히 열린 창문은 소음이 너무 심해 집중이 안 됩니다.
  • 가장 좋은 것: 살짝 열린 창문입니다. 아주 작은 바람 (신호) 이 들어와서 공기를 순환시키지만, 너무 큰 소음은 막아주는 상태. 이것이 바로 '골디락스 존'입니다.

② 부드러운 문 (Smooth Transition)

문 (신호 전달) 이 갑자기 '쾅' 하고 열리거나 닫히는 것보다, 부드럽게 구부러져서 열리고 닫히는 것이 더 좋습니다. 이렇게 하면 AI 가 갑작스러운 변화 (예: 날씨 변화, 새로운 환경) 에 충격을 덜 받고 적응할 수 있습니다.

4. 새로운 발명: "Smooth-Leaky"와 "Randomized Smooth-Leaky"

이 논문은 위 원칙을 적용한 새로운 문 (활성화 함수) 두 가지를 제안했습니다.

  1. Smooth-Leaky (부드러운 누수 문):

    • 문이 완전히 잠기지 않고, 항상 아주 작은 틈 (음수 기울기) 을 유지합니다.
    • 문이 열릴 때 꺾이는 각이 날카롭지 않고 부드럽게 곡선으로 이어집니다.
    • 효과: AI 가 새로운 환경에 부딪혀도 문이 쉽게 열려서 계속 학습할 수 있습니다.
  2. Randomized Smooth-Leaky (랜덤한 부드러운 문):

    • 위 문에 **약간의 '무작위성'**을 더했습니다.
    • 마치 문이 매번 아주 조금씩 다른 각도로 열리도록 해서, AI 가 다양한 상황에 유연하게 대처하도록 돕습니다.
    • 효과: AI 가 특정 패턴에 너무 익숙해져서 (과적합) 새로운 것을 못 배우는 것을 막아줍니다.

5. 실험 결과: 왜 이것이 중요한가?

연구진은 이 새로운 문들을 **이미지 분류 (Supervised Learning)**와 게임/로봇 제어 (Reinforcement Learning) 테스트에 적용했습니다.

  • 결과: 기존 방식 (ReLU 등) 보다 새로운 것을 배우는 속도가 훨씬 빨랐고, 오래 학습해도 유연성을 잃지 않았습니다.
  • 특히 RL(강화학습) 에서: 로봇이 새로운 지형 (예: 미끄러운 바닥, 무거운 짐) 을 만나도, 기존 방식은 금방 멈추거나 넘어졌지만, 새로운 방식을 쓴 로봇은 부드럽게 적응하며 계속 달렸습니다.

6. 결론: "적당한 유연함"이 핵심입니다

이 논문의 핵심 메시지는 매우 간단합니다.

"AI 를 더 똑똑하게 만들려면, 단순히 뇌의 크기를 키우는 게 아니라, 뉴런 사이의 '문 (활성화 함수)'을 더 똑똑하게 설계해야 합니다."

완벽하게 닫히지 않고, 너무 딱딱하지도 않은 **적당한 유연함 (Goldilocks Zone)**을 가진 문이 있어야 AI 는 평생 새로운 것을 배우며 성장할 수 있습니다.

이 연구는 AI 가 우리 삶처럼 끊임없이 변하는 세상에서, 지치지 않고 계속 적응하며 살아남을 수 있는 기초 기술을 제공한다는 점에서 매우 중요합니다.