Adversarial Robustness of Deep Learning-Based Thyroid Nodule Segmentation in Ultrasound

이 논문은 초음파 영상 기반 갑상선 결절 분할 모델이 공간 도메인 적대적 공격에는 일부 방어 기법으로 완화될 수 있으나, 주파수 도메인 공격에는 여전히 취약함을 규명했습니다.

Nicholas Dietrich, David McShannon

게시일 2026-02-26
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🏥 배경: AI 의 눈과 초음파의 특징

갑상선 초음파를 찍으면 AI 가 결절 (혹) 의 경계를 찾아주는데, 이는 의사의 진단을 돕는 중요한 일입니다. 하지만 AI 는 사람처럼 눈으로 보고 판단하는 게 아니라, 숫자 패턴을 계산해서 판단합니다.

이 논문은 **"만약 누군가 AI 가 보는 화면에 사람이 눈으로 못 볼 정도로 아주 미세하게 노이즈를 섞어 넣으면, AI 는 어떻게 될까?"**를 실험했습니다.

⚔️ 실험 1: 두 가지 '악의적인 속임수' (공격법)

연구진은 AI 를 속이기 위해 두 가지 다른 방법을 고안했습니다.

  1. SSAA (소금 알갱이 공격):

    • 비유: 초음파 화면은 원래 '소금 알갱이' 같은 잡음 (스페클) 이 가득한 바다 같습니다. 이 공격은 결절의 가장자리에만 집중해서 그 소금 알갱이들을 살짝 흔들어 놓는 방식입니다.
    • 결과: 사람이 보기에 화면은 거의 똑같지만, AI 는 "아, 여기가 결절의 끝이구나"라고 생각하던 곳을 완전히 헷갈려하게 만들었습니다. (AI 의 정확도가 76% 에서 47% 로 뚝 떨어졌습니다.)
  2. FDUA (주파수 공격):

    • 비유: 초음파 이미지를 악보로 생각해보세요. 이 공격은 악보의 특정 음계 (주파수) 만 살짝 바꿔서 소리를 왜곡시키는 방식입니다.
    • 결과: 이 방법은 화면이 더 뭉개져서 보일 정도로 시각적으로도 이상했지만, AI 를 혼란스럽게 만드는 데는 첫 번째 방법보다 효과가 적었습니다.

🛡️ 실험 2: 방어막 세 가지 (방어법)

공격을 받은 AI 를 구하기 위해 세 가지 '방어막'을 시험해 봤습니다.

  1. 랜덤한 전처리 (눈을 감았다 뜨기):
    • 비유: AI 가 이미지를 볼 때, 이미지를 살짝 확대하거나 흐리게 만들거나 회전시켜서 여러 번 보고 평균을 내는 방식입니다. 마치 눈을 감았다 뜨며 여러 각도에서 확인하는 것과 같습니다.
  2. 확정적 제거 (청소하기):
    • 비유: 이미지의 잡음 (노이즈) 을 깔끔하게 지우는 청소기 같은 필터를 씌우는 것입니다.
  3. 확률적 앙상블 (여러 전문가의 의견 모으기):
    • 비유: 같은 이미지를 여러 번 변형해서 AI 에게 보여주고, **여러 번의 답변을 모아 가장 많은 의견 (다수결)**을 최종 답으로 내는 방식입니다.

📊 결과: 어떤 방어막이 효과적일까?

  • 소금 알갱이 공격 (SSAA) 에는 방어막이 통했습니다!

    • 특히 **'청소기 (확정적 제거)'**가 가장 효과적이었습니다. AI 가 잃어버린 정확도의 약 36% 를 되찾아왔습니다.
    • 다른 방법들도 약간의 도움을 주었지만, 청소기가 가장 잘 작동했습니다.
    • 핵심: 이 공격은 화면의 '질감'을 교란하는 것이었기 때문에, 노이즈를 닦아내는 청소기가 잘 먹혔습니다.
  • 주파수 공격 (FDUA) 에는 방어막이 무력했습니다.

    • 세 가지 방어막 모두 통하지 않았습니다. AI 의 정확도는 거의 회복되지 않았습니다.
    • 핵심: 이 공격은 이미지의 '본질적인 구조 (주파수)'를 건드렸기 때문에, 단순히 화면을 흐리게 하거나 청소하는 것만으로는 해결할 수 없었습니다. 오히려 AI 가 결절을 너무 크게 보거나 (과잉 진단), 작게 보는 등 엉뚱한 방향으로 오답을 냈습니다.

💡 결론 및 시사점

이 연구는 우리에게 두 가지 중요한 교훈을 줍니다.

  1. AI 는 보이지 않는 속임수에 취약합니다: 사람이 보기에 전혀 이상해 보이지 않는 초음파 이미지라도, AI 는 그 안에 숨겨진 미세한 노이즈 때문에 완전히 엉뚱한 진단을 내릴 수 있습니다.
  2. 방어는 '공격의 종류'에 따라 달라져야 합니다:
    • 화면의 질감을 교란하는 공격에는 **단순한 노이즈 제거 (청소)**가 효과적입니다.
    • 하지만 이미지의 구조 자체를 건드리는 공격에는 단순한 청소로는 무용지물입니다. 더 근본적인 해결책 (AI 를 훈련시킬 때부터 이런 공격을 경험하게 하거나, AI 의 구조를 바꾸는 등) 이 필요합니다.

한 줄 요약:

"AI 가 초음파를 볼 때, **표면의 먼지 (노이즈)**를 닦아내면 해결되지만, **이미지의 뼈대 (구조)**를 흔드는 공격에는 단순한 청소로는 막을 수 없으니, 더 똑똑한 방어 전략이 필요하다"는 것을 증명했습니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →