MERGETUNE: Continued Fine-Tuning of Vision-Language Models

이 논문은 선형 모드 연결성 (LMC) 을 기반으로 사전 학습된 지식의 손실 없이 기존 비전 - 언어 모델을 계속 미세 조정하여 일반화 성능을 향상시키는 새로운 패러다임인 'MERGETUNE'을 제안합니다.

Wenqing Wang, Da Li, Xiatian Zhu, Josef Kittler

게시일 2026-02-27
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

MERGETUNE: "잊어버린 지식을 되찾는 마법"

이 논문은 인공지능, 특히 이미지와 텍스트를 함께 이해하는 AI(비전 - 언어 모델) 가 새로운 일을 배우다가 원래 가지고 있던 지식을 잊어버리는 문제를 해결하는 새로운 방법을 소개합니다.

이 복잡한 기술을 누구나 이해할 수 있도록 요리사레시피에 비유해서 설명해 드릴게요.


1. 문제 상황: "전문 요리사가 된 AI 가 기본 레시피를 잊어버리다"

상상해 보세요. CLIP이라는 AI 는 인터넷에 있는 수억 장의 사진과 설명을 공부해서 만든 천재 요리사입니다. 이 요리사는 어떤 재료든 보고 "이건 토마토야", "이건 고양이야"라고 아주 정확하게 맞힐 수 있죠. (이를 Zero-shot, 즉 사전 학습된 상태라고 합니다.)

하지만 이 천재 요리사에게 "이제부터는 고양이 사진만 구별하는 대회에 나가서 우승해!"라고 시키면 어떨까요?

  • **기존 방법 **(Fine-tuning) 요리사는 고양이 대회에서 이기기 위해 새로운 레시피를 열심히 외웁니다.
  • 문제점: 고양이 레시피를 너무 열심히 외우느라, 원래 알던 **수천 가지 다른 재료 **(토마토, 자동차, 꽃 등)를 잊어버리게 됩니다. 이를 **'재앙적 망각 **(Catastrophic Forgetting)이라고 합니다.

기존 연구들은 "잊지 않게 조심하라"는 방법을 많이 냈지만, 완벽하지는 않았습니다.

2. 새로운 해결책: MERGETUNE (계속해서 다듬기)

저자들은 "이미 잊어버렸다면, 다시 기억나게 하면 되지 않나?"라고 생각했습니다. 그래서 MERGETUNE이라는 새로운 방법을 제안했습니다.

🍳 비유: "두 명의 요리사를 하나로 합치는 마법"

MERGETUNE 은 다음과 같은 과정을 거칩니다.

  1. 준비:
    • **A 요리사 **(Zero-shot) 원래의 천재 요리사 (CLIP). 모든 걸 잘 알지만, 고양이 대회에서는 1 등 못 할 수도 있음.
    • **B 요리사 **(Fine-tuned) 고양이 대회에서 1 등 한 요리사. 고양이는 잘 보지만, 다른 건 못 봄.
  2. 목표: A 와 B 의 장점을 모두 가진 C 요리사를 만드는 것.
  3. **방법 **(MERGETUNE)
    • 단순히 A 와 B 를 섞는 것만으로는 안 됩니다. (두 요리사의 생각 방식이 너무 달라서 섞으면 둘 다 망가질 수 있음)
    • 대신, C 요리사를 훈련시켜서 A 와 연결된 길B 와 연결된 길이 모두 매끄럽고 안전한 길이 되도록 만듭니다.
    • 수학적으로는 **손실 함수 **(Loss Landscape)라는 지형도에서, A 와 B 사이를 잇는 **낮은 고개 **(Low-loss path)를 찾아서 그 고개에 C 요리사를 세우는 것입니다.

3. 핵심 기술: "기억을 되찾는 길 찾기"

이 과정에서 가장 어려운 점은 **A 요리사 **(원래 천재)입니다. 인터넷 전체 데이터를 다시 공부할 수는 없으니까요.

  • MERGETUNE 의 지혜: 데이터를 다시 볼 필요 없이, **수학적 추측 **(2 차 근사)을 사용합니다.
    • "원래 천재 요리사 (A) 는 이미 완벽하니까, 그 위치에서 조금만 벗어나도 실력이 떨어질 거야. 그러니 A 에서 너무 멀어지지 않게 잡아주면 되겠지?"
    • 이렇게 A 에 가깝게 유지하는 규칙B 와 연결된 안전한 길을 동시에 찾으면, C 요리사는 고양이도 잘 보고, 원래 지식도 잊지 않는 완벽한 요리사가 됩니다.

4. 왜 이것이 특별한가?

  • 기존 방법과의 차이:
    • 기존 방법: "잊지 않게 조심해" (예방 위주).
    • MERGETUNE: "이미 잊었어도 다시 기억나게 해" (치료 및 회복 위주).
  • 효과:
    • 새로운 데이터 (고양이) 에 대한 성능은 유지하면서, 원래 지식 (다른 물건) 을 되찾았습니다.
    • 기존에 "고양이 대회 1 등"이었던 AI 가, MERGETUNE 을 적용하면 다른 대회에서도 CLIP(원래 천재) 보다 더 잘하는 경우가 생겼습니다!
    • 별도의 복잡한 구조 변경 없이, 이미 훈련된 모델에 **추가 훈련 **(Continued Fine-tuning)만 해주면 됩니다.

5. 요약: 한 줄로 정리하면?

MERGETUNE은 새로운 일을 배우다가 원래 지식을 잃어버린 AI 에게, "원래의 천재성과 새로운 실력을 동시에 가진 안전한 길을 찾아주어, 잊어버린 지식을 되찾게 하는 마법"입니다.

이 방법은 AI 가 특정 일에 특화될 때 잃어버리는 일반적인 지능을 되살려주어, AI 가 더 유연하고 똑똑하게 작동하도록 도와줍니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →