Why Does It Look There? Structured Explanations for Image Classification

이 논문은 사후 XAI 기법에서 추출된 프로토타입을 기반으로 학습 과정의 진행을 정량화하여 모델의 '왜 그 부분을 보았는가'에 대한 구조화된 설명을 제공하고, 이를 통해 모델의 예측 정확도를 향상시킬 수 있는 새로운 프레임워크인 I2X 를 제안합니다.

Jiarui Li, Zixiang Yin, Samuel J Landry, Zhengming Ding, Ramgopal R. Mettu

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"왜 AI 는 이 부분을 보고 '고양이'라고 판단했을까?"**라는 질문에 답하기 위해 개발된 새로운 방법론, **I2X(Interpretability to Explainability)**에 대해 설명합니다.

기존의 AI 설명 기술은 마치 **"어디를 봤는지만 알려주는 지도"**와 같았습니다. 하지만 이 논문은 **"왜 그 지도를 보고 그렇게 결론을 내렸는지, 그 사고 과정이 어떻게 변해왔는지"**를 이야기로 풀어내는 **'구조화된 설명서'**를 만드는 방법을 제안합니다.

이해하기 쉽게 세 가지 핵심 비유로 정리해 드립니다.


1. 기존 방식 vs 새로운 방식 (I2X)

  • 기존 방식 (블랙박스 + 하이라이트):
    AI 가 사진을 보고 "고양이"라고 했을 때, 기존 기술은 사진 속 고양이 눈과 귀 부분을 빨간색으로 하이라이트만 해줍니다. (예: "여기를 봤어요.") 하지만 AI 가 왜 하필 그 부분을 보고 고양이라고 생각했는지, 그 이유와 논리는 알려주지 않습니다. 마치 "정답은 A 야"라고만 말하고 풀이 과정은 보여주지 않는 것과 같습니다.

  • 새로운 방식 (I2X - 구조화된 설명):
    I2X 는 AI 가 학습하는 전 과정을 녹화합니다. 그리고 AI 가 학습할 때마다 **"어떤 특징 (패턴) 을 기억해냈는지"**를 작은 조각들 (프로토타입) 로 나누어 정리합니다.

    • 비유: AI 가 고양이를 배울 때, 처음엔 "귀 모양"을 보고, 다음엔 "수염"을 보고, 마지막엔 "눈동자"를 기억해낸다는 단계별 학습 일지를 만들어주는 것입니다. "왜 고양이라고 판단했는지"에 대한 이유와 과정이 담긴 스토리를 제공하는 거죠.

2. 핵심 원리: "프로토타입"이라는 레고 블록

이 논문에서는 AI 가 세상을 보는 방식을 레고 블록에 비유합니다.

  • 프로토타입 (Prototype): AI 가 학습한 수많은 이미지에서 반복적으로 등장하는 작은 특징들입니다. (예: "대각선 줄무늬", "중앙의 점", "오른쪽 위 모서리" 등)
  • 학습 과정: AI 는 처음엔 이 레고 블록들을 무작위로 섞어봅니다. 하지만 학습이 진행될수록, "고양이"를 구별하기 위해 어떤 블록이 중요한지를 알게 됩니다.
    • 예: "고양이"를 구별하려면 '수염' 블록'귀 모양' 블록이 필요하지만, '개'는 '수염' 블록이 없으니 구별할 수 있구나!
  • I2X 의 역할: 이 레고 블록들이 학습 과정에서 어떻게 조합되고, 어떤 블록이 혼란을 일으키는지 시간순으로 추적해서 보여줍니다.

3. 실전 활용: 혼란을 해결하는 "수술"

가장 흥미로운 점은 이 설명을 통해 AI 의 실수를 고칠 수 있다는 것입니다.

  • 문제 상황:
    AI 가 '고양이'와 '개'를 구분할 때, 어떤 특정 특징 (예: 주황색 털의 가장자리) 때문에 둘을 헷갈려 합니다. 이 특징을 I2X 가 찾아냅니다.

    • 비유: 학생이 시험을 볼 때, '고양이'와 '개'를 구분하는 기준이 모호해서 실수하는 부분이 있다는 것을 발견한 셈입니다.
  • 해결책 (타겟ted 미세 조정):
    I2X 가 찾아낸 **혼란스러운 특징 (불확실한 프로토타입)**을 가진 데이터만 골라내어, AI 가 다시 학습하게 합니다.

    • 비유: 학생이 헷갈리는 문제 유형만 따로 모아 특별 보충 수업을 시켜주는 것입니다.
    • 결과: AI 는 그 혼란스러운 특징을 더 이상 실수로 쓰지 않게 되고, 정확도가 올라가며 실수가 줄어듭니다.

요약: 왜 이 연구가 중요한가요?

  1. 투명성: AI 가 왜 그런 결정을 내렸는지, **단순히 "여기를 봤다"가 아니라 "이런 논리로 결론냈다"**는 것을 인간이 이해할 수 있는 언어로 설명해줍니다.
  2. 신뢰: 의료나 법률처럼 실수가 치명적인 분야에서 AI 를 믿고 쓸 수 있게 해줍니다.
  3. 개선: AI 가 왜 틀렸는지 정확히 찾아내어, 데이터를 고쳐서 AI 를 더 똑똑하게 만들 수 있습니다.

한 줄 요약:

"AI 가 그림을 볼 때, 단순히 '어디를 봤는지' 알려주는 것을 넘어, '어떤 특징을 보고 어떻게 생각했는지' 그 사고 과정을 일기처럼 정리해서, AI 가 헷갈리는 부분을 찾아내어 더 똑똑하게 만들어주는 방법을 제안합니다."