EvoESAP: Non-Uniform Expert Pruning for Sparse MoE

이 논문은 고정된 전체 예산 하에서 각 레이어의 희소성 할당을 균일하지 않게 최적화하여 생성 성능을 크게 향상시키는 진화적 탐색 프레임워크인 EvoESAP 과 이를 위한 안정적 척도인 ESAP 을 제안합니다.

Zongfang Liu, Shengkun Tang, Boyang Sun, Zhiqiang Shen, Xin Yuan

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **'EvoESAP'**이라는 새로운 기술을 소개합니다. 이 기술은 거대한 인공지능 (AI) 모델을 더 가볍고 빠르게 만들면서도, 그 성능은 그대로 유지하거나 오히려 더 좋게 만드는 방법을 찾아냅니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴게요.

1. 배경: 거대한 AI 의 '비싼' 문제

지금의 거대 AI 모델들은 **'스파게티 소스'**처럼 생각하면 됩니다.

  • 전문가 (Experts): 소스를 만들 때 사용하는 수많은 '조리사'들이 있습니다. (각각 다른 일을 잘하는 전문가들)
  • 문제: 이 조리사들이 너무 많아서, 소스를 만들 때마다 모든 조리사를 고용해 두어야 합니다. 하지만 실제로는 한 번에 몇 명만 일시킵니다.
  • 결과: AI 는 똑똑하지만, 이 '모든 조리사'를 기억하고 관리하려면 엄청난 메모리 (돈과 공간) 가 필요해서 일반인이 쓰기 어렵습니다.

2. 기존 방법의 한계: "모든 층에 똑같이 잘라내자"

기존에 이 문제를 해결하려는 방법들은 **"모든 층 (Layer) 에서 똑같은 비율로 조리사를 잘라내자"**라고 생각했습니다.

  • 예를 들어, 100 명 중 50 명을 잘라내야 한다면, 1 층부터 10 층까지 모든 층에서 50 명씩 똑같이 잘라내는 식입니다.
  • 하지만: 실제로는 층마다 중요한 조리사의 역할이 다릅니다. 어떤 층은 10 명만 있어도 충분하고, 어떤 층은 90 명이 필요할 수도 있습니다. 똑같이 잘라내면 중요한 부분이 망가져서 AI 가 멍청해질 수 있습니다.

3. EvoESAP 의 핵심 아이디어: "맞춤형 잘라내기"

이 논문은 **"어떤 층은 많이 남기고, 어떤 층은 적게 남기는 '비균형' 전략"**을 제안합니다. 마치 옷을 다듬을 때, 어깨는 넓게 남기고 허리는 잘라내는 재단처럼 말이죠.

이를 위해 두 가지 핵심 도구를 개발했습니다.

① ESAP: "예측 점수판" (가장 중요한 혁신)

새로운 AI 모델을 만들 때마다 실제 테스트 (수천 번의 대화) 를 해보면 시간이 너무 오래 걸립니다.

  • 비유: 새로운 요리 레시피를 개발할 때, 매번 100 명에게 맛을 보게 하면 시간이 너무 걸립니다. 대신, 주방장 (원본 AI) 이 "이 재료를 넣으면 맛이 비슷할 것 같다"고 미리 점수를 매겨주는 시스템이 필요합니다.
  • ESAP: 이 논문은 **'예상되는 합격률 (ESAP)'**이라는 점수판을 만들었습니다. 이 점수판은 실제 테스트 없이도, "이렇게 조리사를 잘라내면 원본 AI 와 얼마나 비슷하게 행동할까?"를 매우 빠르고 정확하게 예측해 줍니다.

② 진화 알고리즘: "자연선택"

이제 "어떤 층에 몇 명을 남겨야 할까?"라는 정답을 찾아야 합니다.

  • 비유: 수많은 요리 레시피 (잘라내기 패턴) 를 만들어 봅니다.
    1. ESAP 점수판으로 맛을 예측합니다.
    2. 점수가 높은 레시피만 살아남게 합니다.
    3. 살아남은 레시피들을 섞어서 (돌연변이) 새로운 레시피를 만듭니다.
    4. 이 과정을 수십 번 반복하면, 가장 완벽한 '맞춤형 잘라내기' 패턴이 자연스럽게 진화해 나옵니다.

4. 실제 효과: "똑똑한데, 가볍다"

이 방법을 실험해 보니 놀라운 결과가 나왔습니다.

  • 기존 방식 (균일하게 잘라내기): AI 가 멍청해지거나, 특히 창의적인 글쓰기나 수학 문제를 풀 때 실수가 많아졌습니다.
  • EvoESAP 방식 (맞춤형 잘라내기):
    • 메모리는 기존과 똑같이 줄였는데, 수학 문제 (MATH-500) 풀이 능력은 19.6% 나 향상되었습니다.
    • 마치 "중요한 부분은 두껍게 남기고, 덜 중요한 부분은 얇게 잘라내서" 전체적인 구조를 더 튼튼하게 만든 것과 같습니다.

5. 요약: 왜 이 기술이 중요한가?

이 기술은 **"AI 를 더 싸게, 더 빠르게 만들 수 있지만, 지능은 떨어뜨리지 않는다"**는 것을 증명했습니다.

  • 기존: "모든 층에서 똑같이 잘라내자" → 성능이 떨어짐.
  • EvoESAP: "어디에 얼마나 남길지 똑똑하게 계산해서 잘라내자" → 성능은 그대로 (오히려 좋아짐), 비용은 대폭 절감.

이제 우리는 AI 를 더 작은 스마트폰이나 개인용 컴퓨터에서도, 원본과 똑똑하게 작동하도록 구동할 수 있는 길을 열게 되었습니다. 마치 거대한 식당을 작은 카페로 바꾸되, 메인 요리사의 실력은 그대로 유지하는 것과 같습니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →