SCAN: Visual Explanations with Self-Confidence and Analysis Networks

이 논문은 CNN 과 트랜스포머 아키텍처 모두에 적용 가능한 범용 프레임워크인 SCAN 을 제안하여, 정보 병목 원리를 기반으로 한 자기-신뢰도 맵을 생성함으로써 기존 시각적 설명 방법의 한계를 극복하고 높은 충실도와 명확성을 갖춘 해석 가능한 AI 를 실현합니다.

Gwanghee Lee, Sungyoon Jeong, Kyoungson Jhang

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

SCAN: 인공지능이 "왜" 그렇게 판단했는지 알려주는 똑똑한 안내자

이 논문은 인공지능 (AI) 이 사진을 보고 "이건 고양이다"라고 판단할 때, 정말 고양이 특징을 보고 판단했는지, 아니면 배경의 풀을 보고 판단했는지를 알려주는 새로운 방법인 SCAN을 소개합니다.

기존의 방법들은 두 가지 큰 문제점이 있었습니다.

  1. 특정 모델 전용 도구: CNN 이라는 모델에는 잘 작동하지만, 최신 모델 (Transformer) 에는 안 쓰이는 경우가 많았습니다. (모든 차에 맞는 열쇠가 없음)
  2. 정확성 vs 범용성: 정확한 설명을 하려면 모델 구조를 알아야 하고, 어떤 모델이든 쓸 수 있게 만들면 설명이 너무 막연해졌습니다.

SCAN 은 이 두 마리 토끼를 모두 잡는 만능 열쇠 같은 역할을 합니다.


🕵️‍♂️ SCAN 이 작동하는 원리: "재구성"과 "자신감 지도"

SCAN 의 핵심 아이디어를 일상적인 비유로 설명해 드릴게요.

1. 기억력 테스트 (재구성)

상상해 보세요. 친구가 "어제 먹었던 맛있는 파스타"에 대해 설명해 달라고 합니다.

  • 기존 방법: "파스타가 맛있었다"라고만 대충 말합니다. (어떤 파스타인지, 어떤 소스인지 모호함)
  • SCAN 의 방법: SCAN 은 AI 가 본 파스타의 특징 (면, 소스, 치즈) 을 기억해 내서, 실제 파스타 사진을 다시 그려내려고 시도합니다.
    • 만약 AI 가 "치즈" 부분만 기억해 내서 그림을 잘 그릴 수 있다면, AI 는 그 부분을 중요하게 여긴 것입니다.
    • 반면, "배경의 나무" 부분은 기억해 내지 못해 그림이 흐릿하게 나온다면, AI 는 그 부분을 중요하지 않게 여긴 것입니다.

이처럼 AI 가 원래 이미지를 얼마나 잘 다시 그릴 수 있는지를 통해, AI 가 무엇을 중요하게 생각했는지 파악하는 것이 SCAN 의 첫 번째 단계입니다.

2. 자신감 지도 (Self-Confidence Map)

SCAN 은 그림을 그리는 과정에서 "이 부분은 내가 확실히 기억하고 있어!"라고 자신 있게 표시하는 지도를 만듭니다.

  • 이 지도는 AI 가 결정을 내릴 때 **가장 확신하는 부분 (정보량이 많은 부분)**을 밝게 빛나게 보여줍니다.
  • 마치 형광펜으로 중요한 문장만 선명하게 표시해 주는 것과 같습니다.

3. 정보 병목 (Information Bottleneck) 원리

SCAN 은 "불필요한 잡음은 버리고, 진짜 핵심만 남기자"는 철학을 따릅니다.

  • 마치 수프를 걸러내는 체처럼, AI 가 본 이미지의 모든 정보 중 결정에 정말 중요한 정보만 통과시켜 다시 그립니다.
  • 이 과정에서 배경의 잡음이나 관련 없는 부분은 걸러져서 사라지고, 고양이 눈이나 귀 같은 핵심 부분만 선명하게 남게 됩니다.

🌟 SCAN 이 기존 방법보다 뛰어난 점

1. 어떤 모델이든 다 가능 (범용성)

  • 기존: CNN 이라는 구형 엔진 차에는 열쇠가 맞지만, 최신 전기차 (Transformer) 에는 안 맞았습니다.
  • SCAN: 엔진 종류를 가리지 않고 모든 차 (CNN, Transformer) 에 들어맞는 범용 열쇠입니다.

2. 흐릿한 그림이 아닌 선명한 사진 (정확성)

  • 기존 방법들 (GradCAM 등): 고양이의 위치를 대략적으로 "이쪽이다"라고 흐릿한 붉은색 덩어리로 표시합니다. 배경까지 같이 빨갛게 칠해지는 경우가 많습니다.
  • SCAN: 고양이의 정확한 윤곽선을 따라 선명하게 표시합니다. 배경의 풀이나 나무는 깔끔하게 제거되어, AI 가 정말 '고양이'를 보고 판단했음을 증명합니다.

3. 신뢰할 수 있는 설명 (신뢰도)

  • 실험 결과, SCAN 은 AI 가 잘못된 판단을 내렸을 때 그 이유를 정확히 찾아내거나, AI 가 어떤 특징에 집중했는지 가장 정확하게 보여줍니다.
  • 마치 수사관이 용의자의 행동 동기를 정확히 추적해 내는 것과 같습니다.

💡 왜 이것이 중요한가요?

우리가 자율주행차나 의료 진단 AI 를 사용할 때, "왜 이 환자를 암으로 판단했지?", "왜 이 신호를 멈춤으로 인식했지?"라는 질문을 할 수 있어야 합니다.

기존의 AI 설명 도구들은 "어디서 봤는지" 대충 알려주거나, 모델마다 다른 도구를 써야 해서 혼란스러웠습니다. 하지만 SCAN은:

  1. 어떤 AI 모델이든 똑같이 작동합니다.
  2. 정확하고 선명한 이유를 시각적으로 보여줍니다.
  3. 배경 잡음을 제거하고 핵심만 보여줍니다.

이 덕분에 우리는 AI 가 내린 결정을 더 쉽게 이해하고, 신뢰할 수 있게 됩니다. SCAN 은 AI 가 블랙박스 (검은 상자) 가 아니라, 우리가 이해할 수 있는 투명한 창문이 되어주는 혁신적인 기술입니다.