Sharpness-Aware Machine Unlearning

이 논문은 Sharpness-aware minimization(SAM) 의 특성을 분석하여 머신 언러닝 성능을 향상시키고, 이를 기반으로 리텐 신호 학습과 포ゲット 신호 제거를 동시에 최적화하는 'Sharp MinMax'라는 새로운 알고리즘을 제안하여 다양한 언러닝 방법론의 성능을 개선함을 보여줍니다.

Haoran Tang, Rajiv Khanna

게시일 2026-03-10
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"머신 러닝 모델이 특정 데이터를 '잊는' 방법 (기계적 망각, Machine Unlearning)"**에 대한 연구입니다.

현대 AI 는 방대한 양의 데이터를 학습하지만, 때로는 사용자가 "내 사진은 지워줘"라고 요청하거나 저작권 문제가 생겼을 때 특정 데이터를 모델에서 완전히 제거해야 합니다. 하지만 모델을 처음부터 다시 만드는 건 너무 비싸고 시간이 걸립니다. 그래서 기존 모델에서 특정 데이터만 지우는 '망각 기술'이 필요해졌죠.

이 논문은 **SAM(Sharpness-Aware Minimization)**이라는 최적화 기법을 이용해 기존보다 훨씬 더 효과적으로 데이터를 잊게 만드는 방법을 제안합니다.

핵심 내용을 일상적인 비유로 설명해 드리겠습니다.


1. 문제 상황: "잊으려고 하면, 오히려 더 기억하게 되는 아이"

AI 모델을 공부하는 학생이라고 상상해 보세요.

  • 유지 데이터 (Retain Set): 학생이 계속 공부해야 하는 교과서 내용 (예: 수학 공식).
  • 망각 데이터 (Forget Set): 학생이 잊어야 하는 내용 (예: 친구가 알려준 잘못된 정보나, 지우라고 요청한 특정 문제).

기존 방식 (SGD) 은 이 두 가지를 동시에 가르치려고 하면, 학생이 "수학 공식도 잊어버리고, 잘못된 정보도 제대로 기억하지 못하는" 혼란스러운 상태가 되거나, 반대로 "잘못된 정보를 너무 강하게 기억해서 (과적합), 오히려 지우기가 더 어려워지는" 문제가 발생했습니다.

2. 기존 해결책의 한계: "평탄한 지형의 미덕"

기존 연구에서는 AI 가 **'평탄한 지형 (Flat Landscape)'**에 머무르면 노이즈 (오류) 를 잘 기억하지 않고 일반화 능력이 좋다고 했습니다. 마치 넓은 평야에 서 있으면 바람에 흔들리지 않는 것처럼요. 그래서 'SAM'이라는 기법을 사용하면 노이즈를 잘 무시한다고 믿었습니다.

하지만 이 논문은 **"망각 (Unlearning) 상황에서는 이 규칙이 깨진다"**는 놀라운 사실을 발견했습니다.

3. 핵심 발견: "잊으라고 하면, SAM 도 과적합한다"

논문의 저자들은 SAM 을 망각 작업에 적용했을 때, SAM 이 평소의 '노이즈를 무시하는 성실한 성격'을 버리고, 잊으라고 하는 데이터 (망각 데이터) 에 대해 SGD 와 똑같이 '과도하게 기억 (과적합)'하는 현상을 발견했습니다.

  • 비유: 평소에는 소문 (노이즈) 을 믿지 않는 성실한 학생 (SAM) 이, "이 소문은 절대 잊어!"라고 강하게 명령받으면, 오히려 그 소문에 집착해서 더 잘 기억하게 되는 것입니다.
  • 의미: 이는 역설적으로 좋습니다. 왜냐하면 망각 데이터에 대해 "과도하게 기억 (과적합)"하는 것이, 그 데이터를 모델에서 완전히 지우는 데 도움이 되기 때문입니다.

4. 새로운 제안: "Sharp MinMax (날카로운 최대 - 최소)"

이 발견을 바탕으로 저자들은 Sharp MinMax라는 새로운 알고리즘을 제안했습니다. 이 방법은 모델을 두 명의 학생으로 나누어 역할을 분담시킵니다.

  1. 유지 학생 (Retain Model): SAM을 사용합니다.
    • 역할: 교과서 (유지 데이터) 를 공부할 때는 소문을 무시하고 **넓은 평야 (평탄한 지형)**에 서서 튼튼하게 기억합니다.
  2. 망각 학생 (Forget Model): **Sharpness Maximization (날카로운 최대화)**을 사용합니다.
    • 역할: 잊어야 할 데이터 (망각 데이터) 에 대해서는 **날카로운 산꼭대기 (Sharp Landscape)**에 서서, 그 데이터에 대해 극단적으로 과적합합니다.
    • 효과: 마치 "이 데이터는 내 머릿속에 너무 깊게 박혀서, 다른 데이터와 섞이지 않게 완전히 분리해 버린다"는 느낌입니다. 이렇게 하면 유지 데이터에는 영향을 주지 않으면서, 망각 데이터만 완벽하게 지울 수 있습니다.

5. 실험 결과: "왜 이것이 더 좋은가?"

  • 더 적은 데이터로도 가능: 유지 데이터가 적어도 SAM 을 쓰면 성능을 유지하면서 망각을 잘 수행합니다.
  • 보안 강화: 해커가 "이 데이터가 학습에 쓰였나요?"라고 물어보는 공격 (멤버십 추론 공격) 을 해도, SAM 을 쓴 모델은 그 데이터를 전혀 기억하지 않는 것처럼 행동하여 보안을 강화합니다.
  • 혼란 감소: 유지 데이터와 망각 데이터가 서로 섞여 있는 현상 (Feature Entanglement) 이 줄어들어, 모델이 더 깔끔하게 데이터를 구분합니다.

요약

이 논문은 **"AI 가 특정 데이터를 잊게 하려면, 평소의 '성실함 (노이즈 무시)'을 잠시 내려놓고, 잊어야 할 데이터에 대해서는 '집착 (과적합)'하는 전략을 써야 한다"**는 통찰을 줍니다.

그리고 이 아이디어를 바탕으로 **모델을 두 부분으로 나누어, 하나는 평온하게 유지하고 다른 하나는 날카롭게 과적합시키는 'Sharp MinMax'**라는 새로운 방법을 만들어냈습니다. 이는 데이터 프라이버시나 저작권 문제가 발생할 때, AI 를 더 안전하고 효율적으로 관리할 수 있는 길을 열어줍니다.