Spread them Apart: Towards Robust Watermarking of Generated Content

이 논문은 생성된 콘텐츠의 소유권 분쟁과 윤리적 문제를 해결하기 위해 모델 재학습 없이 추론 단계에서 적용되며, 제한된 크기의 첨가적 교란과 다양한 제거 공격에 대해 강건한 워터마킹 기법을 제안합니다.

Mikhail Pautov, Danil Ivanov, Andrey V. Galichin, Oleg Rogov, Ivan Oseledets

게시일 2026-03-02
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎨 핵심 아이디어: "그림을 그리는 순간, 비밀 스탬프를 찍다"

최근 AI 가 그리는 그림이 너무 예뻐서 진짜 사진과 구별하기 어렵습니다. 문제는 누군가 AI 가 그린 그림을 가져다가 "이건 내가 직접 그린 거야!"라고 거짓말하고 저작권을 주장할 수 있다는 점입니다.

이 논문은 **"AI 가 그림을 그리는 그 순간에, 그림 속에 사용자의 고유한 비밀 코드를 숨겨버리는 방법"**을 제안합니다.

1. 비유: "요리사와 레시피"

  • 기존 방식: 요리를 다 하고 나서 그릇에 스티커를 붙이는 것 (이미지가 완성된 후 수정). 하지만 이 스티커는 쉽게 떼어내거나 가릴 수 있습니다.
  • 이 논문의 방식: 요리사가 재료를 섞고 요리하는 과정 자체를 조금씩 조절해서, 그 요리의 '맛'이나 '결'에 특정 요리사의 손맛이 배어있게 만드는 것입니다. 요리가 완성되면 그 맛은 이미 음식에 스며들어 있어, 아무리 요리법을 바꿔도 (이미지를 변형해도) 그 손맛은 사라지지 않습니다.

🔍 이 기술이 어떻게 작동할까요?

1 단계: 비밀 키 발급 (등록)

사용자가 AI 서비스에 가입하면, 시스템은 그에게 두 가지 것을 줍니다.

  • 공개된 비밀 (Watermark): "이 그림은 내가 그렸다"는 것을 증명하는 100 자짜리 암호문 (예: 0 과 1 의 나열).
  • 비밀 열쇠 (Secret Key): 이 암호문을 찾아낼 수 있는 지도. (예: "그림의 왼쪽 10 번째 픽셀과 오른쪽 20 번째 픽셀을 비교해라" 같은 규칙).

2 단계: 그림 그리기 (물결 퍼뜨리기)

사용자가 "고양이 그림 그려줘"라고 요청하면, AI 는 그림을 그리기 시작합니다. 이때 AI 는 단순히 그림만 그리는 게 아니라, 사용자의 비밀 암호문이 그림 속에 자연스럽게 녹아들도록 그림의 미세한 픽셀 값들을 조정합니다.

  • 핵심 원리 (Spread them Apart): 그림 속의 두 픽셀 (A 와 B) 을 비교합니다. 암호가 '0'이라면 A 가 B 보다 밝게, '1'이라면 A 가 B 보다 어둡게 만듭니다.
  • 강력한 방어: 단순히 A 가 B 보다 밝게 하는 게 아니라, 충분히 많이 (예: 20% 이상) 차이를 두도록 강제합니다. 그래서 나중에 그림을 조금만 흐리게 하거나 밝기를 조절해도, "A 가 여전히 B 보다 밝다"는 사실은 변하지 않습니다.

3 단계: 진위 확인 (수사)

나중에 그 그림이 의심스러워지면, 소유자는 그 사람의 '비밀 열쇠'로 그림을 분석합니다.

  • "왼쪽 픽셀이 오른쪽보다 밝나요?" -> "네, 맞습니다."
  • "다음 픽셀은?" -> "네, 어둡습니다."
  • 이렇게 100 개를 다 확인하면, 원래 암호문과 거의 일치하는지 알 수 있습니다. 일치하면 "이 그림은 AI 가 그렸고, 특정 사용자가 그렸다"는 것을 100% 증명할 수 있습니다.

🛡️ 왜 이 기술이 특별한가요? (강점)

이 방법은 다른 기술들과 비교해 세 가지 강력한 장점이 있습니다.

  1. 재학습 불필요 (No Retraining):

    • 다른 방법들은 AI 모델을 처음부터 다시 가르쳐야 했지만, 이 방법은 이미 훈련된 AI 를 그대로 사용하면서 그림을 그리는 과정만 살짝 조정합니다. 비용이 거의 들지 않습니다.
  2. 변형 공격에 강함 (Robustness):

    • 비유: 누군가 이 그림을 가져다가 "밝기를 조절하고, 회전시키고, 흐리게 하고, 노이즈를 넣어서 지워버리겠다!"라고 공격해 봅니다.
    • 결과: 이 방법은 그림의 **기본적인 구조 (픽셀 간의 크기 차이)**에 코드를 심기 때문에, 그림을 회전시키거나 색을 바꾸는 정도로는 코드가 지워지지 않습니다. 마치 물결이 퍼져나갈 때 (Spread them Apart) 물결의 방향을 바꾸더라도 물결 자체는 사라지지 않는 것과 같습니다.
  3. 악의적인 공격도 막아냄:

    • 해커가 AI 모델의 작동 원리를 다 알고 있어서 "지워주는 AI"를 만들어 공격해도 (화이트박스 공격), 이 코드는 여전히 살아남을 확률이 매우 높습니다.

📊 실험 결과

연구진은 이 방법을 'Stable Diffusion'이라는 유명한 AI 모델에 적용해 보았습니다.

  • 밝기 조절, 회전, 자르기, JPEG 압축 등 다양한 공격을 가해도 코드가 거의 지워지지 않았습니다.
  • 다른 최신 기술들보다 오류율이 훨씬 낮았으며, 특히 그림을 회전시키거나 이동시키는 공격에 매우 강력했습니다.

💡 결론: "AI 시대의 저작권 수호자"

이 논문은 **"Spread them Apart (그들을 멀리 퍼뜨려라)"**라는 제목처럼, 그림 속에 코드를 단순히 숨기는 게 아니라, 그림의 여러 부분으로 퍼뜨려서 어떤 변형이 가해져도 코드가 살아남게 만드는 기술입니다.

이 기술이 보편화되면:

  1. AI 가 그린 그림임을 자동으로 감지할 수 있습니다.
  2. 누가 그 그림을 생성했는지 정확히 추적할 수 있습니다.
  3. 저작권 도용을 막고, AI 의 윤리적인 사용을 보장할 수 있게 됩니다.

간단히 말해, **"AI 가 그린 그림에 영구적인, 지울 수 없는 디지털 낙인을 찍는 기술"**이라고 이해하시면 됩니다.