Benchmarking Unlearning for Vision Transformers

이 논문은 CNN 이 아닌 비전 트랜스포머 (Vision Transformers) 를 대상으로 머신 언러닝 알고리즘의 성능을 체계적으로 벤치마킹하는 최초의 연구로, 다양한 데이터셋과 알고리즘, 프로토콜을 활용하여 비전 트랜스포머의 데이터 암기 특성을 분석하고 향후 연구의 기준이 되는 포괄적인 평가 체계를 제시합니다.

Kairan Zhao, Iurie Luca, Peter Triantafillou

게시일 2026-02-24
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"시각적 인공지능 (Vision Transformer) 이 배운 것을 잊게 만드는 기술"**에 대한 연구입니다.

쉽게 말해, **"인공지능이 실수하거나, 사생활을 침해하는 데이터를 배웠을 때, 그 데이터의 흔적을 깨끗이 지우고 다시 똑똑하게 작동하게 만드는 방법"**을 조사한 보고서입니다.

이 내용을 일상적인 비유로 풀어서 설명해 드릴게요.


1. 배경: 왜 '잊기'가 중요할까요?

예전에는 인공지능 (AI) 이 사진을 보는 데는 'CNN'이라는 방식이 주로 쓰였습니다. 하지만 요즘은 '비전 트랜스포머 (VT)'라는 더 똑똑한 방식이 대세입니다.

그런데 문제는, 이 AI 가 **나쁜 데이터 (편향된 정보, 해킹용 데이터, 사생활이 드러나는 사진 등)**를 배워버리면 어떻게 해야 할까요?

  • 법적/윤리적 요구: "그 사진을 지워줘"라고 요청하면, AI 는 그 사진을 기억하지 않아야 합니다.
  • 기존 연구의 한계: 이전 연구들은 주로 '구식 AI(CNN)'나 '텍스트 AI'에 초점을 맞췄습니다. 하지만 최신 AI 인 '비전 트랜스포머'는 어떻게 잊어야 하는지没人이 제대로 연구하지 않았습니다.

이 논문은 **"최신 AI 모델에게도 '잊기' 기술이 잘 작동하는지, 그리고 어떤 방법이 가장 좋은지"**를 처음부터 끝까지 실험해 본 것입니다.

2. 핵심 실험: AI 의 '기억력'을 테스트하다

연구진은 AI 가 데이터를 얼마나 강하게 '암기'하는지, 그리고 그걸 어떻게 지울지 실험했습니다.

🧠 비유: 학생의 시험 공부

  • CNN (구식 AI): 마치 모든 것을 외우는 암기형 학생 같습니다. 특정 문제를 보면 그 문제와 관련된 부분만 기억합니다.
  • 비전 트랜스포머 (최신 AI): 전체적인 맥락을 이해하는 통찰형 학생 같습니다. 문제를 풀 때 전체적인 흐름을 보고 답을 찾습니다.

질문: "통찰형 학생은 암기형 학생과 다르게 배운 것을 잊을 수 있을까?"

결과:

  • 놀랍게도, 기억 패턴은 비슷했습니다. 두 학생 모두 어려운 문제는 깊게 기억하고, 쉬운 문제는 가볍게 기억하는 '긴 꼬리' 패턴을 보였습니다.
  • 하지만 잊는 방법은 달랐습니다.

3. 주요 발견: 어떤 방법이 가장 효과적일까?

연구진은 여러 가지 '잊기 전략'을 시도했습니다.

① 전략 A: "다시 공부하기" (Fine-tune)

  • 방법: 잊고 싶은 데이터만 빼고, 나머지 데이터로 다시 가볍게 공부하게 합니다.
  • 결과: 비전 트랜스포머 (VT) 에서는 이게 가장 잘 먹혔습니다. 특히 ViT 라는 모델은 전체적인 맥락을 보는 특성상, 가볍게 다시 공부하는 것만으로도 잊는 데 효과적이었습니다.

② 전략 B: "기억을 지우는 힘" (NegGrad+)

  • 방법: "이 데이터는 절대 기억하지 마!"라고 강하게 명령하며 학습 방향을 반대로 조정합니다.
  • 결과: Swin-T 라는 모델 (CNN 과 비슷한 구조) 에서는 이 방법이 최고였습니다. CNN 과 구조가 비슷한 모델은 이 강력한 '지우기 명령'에 더 잘 반응했습니다.

③ 전략 C: "중요한 부분만 지우기" (SalUn)

  • 방법: 어떤 데이터가 모델에 가장 큰 영향을 줬는지 찾아내어, 그 부분만 선택적으로 지웁니다.
  • 결과: 비전 트랜스포머에서는 실패했습니다. 특히 사생활 보호 (MIA 공격 방어) 측면에서는 오히려 데이터를 완전히 지우지 못해 위험했습니다.

4. 중요한 교훈: "상황에 맞는 도구"를 쓰세요

이 논문은 우리에게 다음과 같은 실용적인 조언을 줍니다.

  1. 모델에 따라 잊는 법이 다릅니다:

    • ViT 모델을 쓴다면 -> 가볍게 다시 공부하게 하세요 (Fine-tune).
    • Swin-T 모델을 쓴다면 -> 강력하게 지우기 명령을 내리세요 (NegGrad+).
    • SalUn 같은 복잡한 방법은 최신 AI 에선 피하는 게 좋습니다.
  2. 데이터의 복잡도가 중요합니다:

    • 쉬운 데이터 (단순한 그림) 에서는 모든 방법이 잘 작동합니다.
    • 하지만 **복잡한 데이터 (수천 가지 사물, ImageNet 같은 거대 데이터)**에서는 **NegGrad+**가 가장 강력하고 안정적으로 작동했습니다.
  3. 계속해서 잊어도 괜찮을까요? (Continual Unlearning)

    • 실제로는 한 번에 잊는 게 아니라, 수시로 "이거 지워줘, 저거 지워줘"를 반복합니다.
    • 실험 결과, 최적의 방법 (NegGrad+ 등) 을 쓰면 10 번을 반복해도 AI 의 성능이 떨어지지 않았습니다. 마치 좋은 지우개로 연필 자국을 지우듯, AI 는 계속 잊어도 원래 능력을 유지했습니다.

5. 결론: 이 연구가 왜 중요한가요?

이 논문은 **"최신 AI 모델도 '잊을 권리'를 보장받을 수 있다"**는 것을 증명했습니다.

  • 과거: "AI 는 한번 배운 걸 지우기 어렵다"는 편견이 있었습니다.
  • 현재: "적절한 방법 (NegGrad+ 등) 과 도구 (Holdout Retraining 같은 지표) 를 쓰면, 최신 AI 도 완벽하게 잊을 수 있다"는 것을 밝혔습니다.

마치 최신형 자동차 (비전 트랜스포머) 에도 올바른 키 (잊기 알고리즘) 를 쓰면, 이전 모델보다 더 깔끔하게 '초기화'할 수 있다는 것을 발견한 셈입니다.

이 연구는 앞으로 AI 가 사생활을 침해하거나 편향된 정보를 배웠을 때, 이를 안전하게 제거하는 표준적인 가이드라인을 제시했다는 점에서 매우 중요합니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →