Attention to Neural Plagiarism: Diffusion Models Can Plagiarize Your Copyrighted Images!

이 논문은 추가 학습 없이 그라디언트 기반의 '앵커 및 쉼' 기법을 통해 워터마킹이 적용된 저작권 이미지를 복제하거나 저작권 모호성을 유발할 수 있는 확산 모델의 치명적인 취약점과 '신경 표절' 위협을 규명합니다.

Zihang Zou, Boqing Gong, Liqiang Wang

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 문제 상황: "AI 가 그림을 훔쳐먹는다?"

전통적으로 그림이나 사진에 저작권을 보호하기 위해 **물결무늬 (워터마크)**를 넣거나, 작가의 서명을 남깁니다. 마치 귀중한 보석에 "이건 내 거야"라고 적힌 라벨을 붙이는 것과 같습니다.

하지만 최근 '확산 모델 (Diffusion Model)'이라는 AI 가 등장하면서 상황이 달라졌습니다. 이 AI 는 수많은 그림을 학습해서 새로운 그림을 그릴 수 있는데, 원본 그림을 그대로 복사해내거나, 라벨만 살짝 지워버린 뒤 똑같은 그림을 다시 그릴 수 있다는 것입니다.

2. 해결책 (공격 방법): "앵커와 쉼 (Shim)"

논문 저자들은 이 AI 가 어떻게 저작권을 뚫는지 그 방법을 찾아냈습니다. 이를 설명하기 위해 배를 수리하는 비유를 들어볼까요?

  • 앵커 (Anchor, 닻): 원본 그림을 AI 가 이해하는 언어 (잠재 공간) 로 변환한 '기준점'입니다. 마치 배가 떠다니는 바다의 고정된 위치와 같습니다.
  • 쉼 (Shim, 쐐기): 배와 선체 사이에 끼워 넣는 작은 나무 조각입니다. 이 작은 조각을 살짝 끼우면 배의 위치가 아주 조금씩 움직이게 됩니다.

이들의 공격 원리:

  1. AI 가 그리는 그림의 '기준점 (앵커)'을 잡습니다.
  2. 그 기준점에 작은 '쐐기 (Shim)'를 여러 번 끼워 넣습니다.
  3. 이 쐐기는 그림의 의미 (예: 머리카락 색깔, 옷 스타일) 를 아주 조금씩, 하지만 꾸준히 바꿔줍니다.
  4. 결과적으로 원래 그림과 너무 비슷해서 눈으로 보면 똑같지만, AI 내부적으로는 완전히 다른 데이터가 되어버립니다.

이 과정에서 AI 는 원래 그림에 숨겨져 있던 저작권 라벨 (워터마크) 을 자연스럽게 지워버리거나, 아예 다른 사람의 라벨을 붙여버립니다.

3. 두 가지 무서운 공격 방식

이 기술은 두 가지 방식으로 저작권을 무너뜨립니다.

A. 위조 공격 (Forgery Attack) - "라벨을 지우고 내 거라고 하기"

  • 상황: 원본 그림에 숨겨진 디지털 지문 (워터마크) 이 있습니다.
  • 공격: AI 가 쐐기를 끼워 그림을 살짝 변형시킵니다.
  • 결과: 그림은 원본과 거의 똑같지만, 디지털 지문은 완전히 사라집니다. 마치 위조 지폐를 만들어서 "이건 진짜야"라고 주장하는 것과 같습니다.

B. 모호성 공격 (Ambiguity Attack) - "내 것도 너의 것도 아닌 것처럼 만들기"

  • 상황: 그림에 두 개의 서로 다른 라벨이 붙어 있습니다.
  • 공격: AI 가 원본 라벨은 지우지 않고, 새로운 라벨을 추가로 붙입니다.
  • 결과: "이 그림은 A 작가의 것이기도 하고, B 작가의 것이기도 하다"는 식으로 누구의 것인지 알 수 없게 만듭니다. 법적으로 소유권을 주장하기가 매우 어려워집니다.

4. 왜 이것이 위험할까요?

이 연구의 가장 무서운 점은 AI 를 다시 훈련시킬 필요가 없다는 것입니다.

  • 기존에는 새로운 해킹 방법을 쓰려면 AI 를 다시 가르쳐야 했지만, 이 방법은 그림을 입력하기만 하면 AI 가 스스로 최적의 '쐐기'를 찾아서 저작권을 뚫습니다.
  • 메모리도 적게 먹습니다. 고사양 컴퓨터가 아니라도 실행 가능할 정도로 효율적입니다.

5. 결론: "우리는 무엇을 해야 할까?"

이 논문은 **"AI 가 너무 똑똑해져서, 우리가 만든 저작권 보호 장치 (워터마크) 가 무용지물이 될 수 있다"**는 것을 경고합니다.

  • 현재: AI 가 그림을 그릴 때, 원본 그림의 저작권을 뚫고 똑같은 그림을 만들어낼 수 있습니다.
  • 미래: 만약 이 기술이 악용된다면, 유명한 화가의 작품이나 기업의 로고가 AI 에 의해 쉽게 복제되고, 누구 것이든 모호하게 만들어져 법적 분쟁이 빗발칠 수 있습니다.

한 줄 요약:

"AI 가 그림을 그릴 때, 아주 작은 '쐐기'를 살짝 끼워 저작권 보호막을 뚫고, 원본과 똑같은 그림을 만들어내거나 소유권을 혼란스럽게 만들 수 있다는 새로운 위협이 등장했습니다."

이 연구는 이러한 위협을 미리 알아차리고, 더 강력한 새로운 저작권 보호 기술을 개발해야 한다는 경고 신호입니다.