When Denoising Becomes Unsigning: Theoretical and Empirical Analysis of Watermark Fragility Under Diffusion-Based Image Editing

이 논문은 확산 기반 이미지 편집 기술이 고안된 무결성 유지 목적과 달리, 역방향 생성 과정에서 워터마크 신호를 노이즈로 간주하여 제거함으로써 기존 robust 워터마킹 시스템의 무결성을 이론적 및 실증적으로 붕괴시킨다는 점을 규명하고, 이에 대한 윤리적 함의와 새로운 설계 지침을 제시합니다.

Fai Gu, Qiyu Tang, Te Wen, Emily Davis, Finn Carter

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎨 1. 배경: 보이지 않는 낙인과 마법 같은 그림 그리기

  • 디지털 워터마크 (보이지 않는 낙인):
    과거에는 사진에 저작권을 표시하기 위해 눈에 보이지 않는 작은 '낙인'을 찍었습니다. 이는 마치 투명한 잉크로 사진 구석에 "이건 내 거야"라고 써두는 것과 같습니다. 보통 사진이 잘리거나, 압축되거나, 색이 조금 변해도 이 낙인은 남아있도록 설계되었습니다.
  • 확산 기반 이미지 편집 (마법 같은 그림 그리기):
    최근에는 '디퓨전 (Diffusion)'이라는 AI 기술로 사진을 편집합니다. 이는 단순히 사진을 자르거나 색을 바꾸는 게 아니라, 사진을 '연기'로 만들어버린 뒤, 다시 그 연기를 보고 새로운 그림을 그려내는 과정입니다. 사용자의 명령 (예: "이 고양이에게 선글라스를 씌워줘") 을 들으면 AI 는 원래 사진을 완전히 해체하고, 새로운 그림을 다시 합성합니다.

💥 2. 문제: "지우기"가 아니라 "다시 그리기"의 함정

이 논문이 발견한 놀라운 사실은 다음과 같습니다.

"AI 가 사진을 편집할 때, 보안 마크를 지우려고 의도한 게 아니더라도, 마크가 자연스럽게 사라져버린다."

비유로 설명하자면:

  • 기존 방식 (JPEG, 자르기 등): 사진에 낙인이 찍힌 종이를 구기거나, 테이프를 붙였다 떼는 것과 비슷합니다. 낙인이 조금 찌그러질 수는 있지만, 여전히 남아있습니다.
  • 새로운 방식 (AI 편집): 사진이 찍힌 종이를 물속에 완전히 녹여버린 뒤, 그 물에서 새로운 종이를 다시 뽑아내는 것과 같습니다.
    • AI 는 "이게 고양이야"라는 의미 (의미) 는 기억하고 새 그림을 그립니다.
    • 하지만 "이곳에 투명 잉크 낙인이 있었지"라는 **미세한 흔적 (노이즈)**은 AI 가 "이건 그냥 잡음 (소음) 이야"라고 생각해서 깨끗이 제거해버립니다.

🔬 3. 연구 결과: 마크는 어떻게 사라질까?

저자들은 이 현상을 수학적으로 증명했습니다.

  1. 소음의 침입: AI 는 편집 과정에서 사진에 거대한 '소음 (Noise)'을 섞습니다. 마치 커피에 물을 너무 많이 부어 커피 향을 희석시키는 것과 같습니다.
  2. 재합성의 과정: AI 는 이 소음이 섞인 상태에서 다시 깨끗한 그림을 그려냅니다. 이때 AI 는 "자연스러운 그림"을 그리려고 노력하므로, 인위적으로 넣은 미세한 낙인 (워터마크) 을 '불필요한 잡음'으로 판단하고 버립니다.
  3. 결과: 편집이 강할수록 (예: 고양이 위치를 완전히 바꾸거나, 배경을 새로 그릴수록), 워터마크를 읽을 확률은 동전 던지기 (50%) 수준까지 떨어집니다. 즉, 마크가 있는지 없는지 알 수 없게 됩니다.

📊 4. 실험 내용 (가상의 시나리오)

논문에서는 여러 최신 AI 편집기 (TF-ICON, SHINE, DragFlow 등) 와 다양한 워터마크 기술 (StegaStamp, TrustMark 등) 을 섞어보았습니다.

  • 결과: 기존에 "강력하다"고 알려진 워터마크 기술들도 AI 편집을 거치면 대부분 무너졌습니다.
  • 흥미로운 점: 편집된 사진은 시각적으로 매우 완벽하고 아름다웠습니다. 하지만 그 완벽한 그림 속에는 원래 사진의 '신원 정보 (워터마크)'는 완전히 사라져 있었습니다.

💡 5. 우리가 배워야 할 교훈 (해결책 제안)

이 연구는 "AI 가 나쁘다"라고 말하는 것이 아니라, **"기존 보안 방식으로는 AI 시대를 대비할 수 없다"**는 것을 경고합니다.

  1. 단순한 낙인은 부족하다: 더 이상 사진 구석에 작은 점을 찍는 방식으로는 보안을 지킬 수 없습니다.
  2. 새로운 접근법 필요:
    • 의미 기반 마킹: 그림의 '내용' 자체에 정보를 숨겨야 합니다 (예: 고양이의 귀 모양에 정보를 담는 등).
    • 편집 기록 남기기: 워터마크가 사라질 수 있으므로, "이 사진이 AI 로 편집되었다"는 사실 자체를 기록하고 추적하는 시스템이 필요합니다.
  3. 윤리적 고려: 이 기술은 해커가 저작권을 뺏기 위해 악용할 수도 있지만, 동시에 우리가 AI 시대에 어떻게 콘텐츠를 보호할지 방어책을 마련하는 데 필수적입니다.

🏁 요약

"AI 가 사진을 마법처럼 다시 그릴 때, 그 과정에서 사진에 숨겨진 '보안 낙인'은 마치 연기가 바람에 흩어지듯 사라져버립니다. 우리는 이제 사진의 '내용'이 아니라, 그 사진이 어떻게 만들어졌는지 기록하는 새로운 보안 시스템을 고민해야 합니다."