Explainable embeddings with Distance Explainer

이 논문은 임베딩 공간 내 두 데이터 포인트 간의 거리와 유사성을 설명하기 위해 RISE 기반의 선택적 마스킹 기법을 적용한 새로운 방법론인 'Distance Explainer'를 제안하고, ImageNet 및 CLIP 모델을 통한 실험을 통해 그 효과성과 견고성을 입증합니다.

Christiaan Meijer, E. G. Patrick Bos

게시일 2026-03-26
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 문제 상황: AI 의 '머릿속'은 블랙박스입니다

우리가 AI 에게 사진을 보여주고 "이건 개야, 고양이야?"라고 물으면 AI 는 정답을 맞춥니다. 하지만 AI 는 그 이유를 말해주지 않습니다.
더 나아가, 최근 AI 들은 사진을 숫자 나열 (벡터) 로 변환해서 저장합니다. 이를 **'임베딩 (Embedded Space)'**이라고 하는데, 마치 거대한 도서관의 책장처럼 생겼습니다.

  • 비유: AI 는 '개' 사진과 '고양이' 사진을 각각 다른 책장에 꽂아둡니다. 그리고 "이 두 책은 서로 아주 가깝게 붙어있네 (비슷해)" 혹은 "저리 멀리 떨어져 있네 (다르네)"라고 판단합니다.
  • 문제: AI 는 "왜 가깝다고 생각했지?"라고 물으면, "글쎄, 내 머릿속 숫자 계산 결과야"라고만 답합니다. 우리는 어떤 특징 (귀, 꼬리, 털 등) 때문에 가깝다고 판단했는지 알 수 없습니다.

2. 해결책: '거리 설명자 (Distance Explainer)'

저자들은 이 블랙박스를 열기 위해 **'거리 설명자'**라는 새로운 도구를 만들었습니다. 이 도구의 원리는 다음과 같습니다.

🕵️‍♂️ 비유: "만약 이 부분을 가리면 어떨까?" (마스크 실험)

두 장의 사진 (예: 꿀벌 사진 A 와 파리 사진 B) 을 비교한다고 가정해 봅시다. AI 는 이 둘이 비슷하다고 판단했습니다.

  1. 실험 시작: AI 가 꿀벌 사진 (A) 의 일부를 가려봅니다 (예: 날개를 가림).
  2. 결과 확인: "아, 날개를 가리니까 AI 가 '파리'와 더 비슷하다고 판단했네!" 혹은 "날개를 가려도 여전히 꿀벌로 인식되네?"를 확인합니다.
  3. 반복: 사진의 수많은 부분을 무작위로 가려보며, 어떤 부분을 가렸을 때 AI 의 판단이 가장 크게 변하는지 찾아냅니다.
  4. 결론: "아! 꿀벌의 날개를 가리면 AI 가 혼란을 겪으니, 날개가 두 사진을 비슷하게 만든 핵심 요소구나!"라고 설명해줍니다.

3. 이 방법의 특별한 점 (기존 기술과의 차이)

기존의 AI 설명 기술들은 보통 "이 사진이 개일 확률이 얼마나 높은지"를 설명하는 데 집중했습니다. 하지만 이 방법은 **"두 사진 사이의 거리 (유사도)"**를 설명합니다.

  • 기존: "이 사진은 개입니다." -> "왜?" -> "코가 길어서요."
  • 이 방법 (거리 설명자): "이 사진 (개) 과 저 사진 (개) 은 왜 비슷할까요?" -> "두 사진 모두 모양이 비슷해서 서로 가깝게 붙어있어요."
  • 또는: "이 사진 (개) 과 저 사진 (고양이) 은 왜 다를까요?" -> "고양이 사진의 수염눈 모양이 개와 달라서 멀리 떨어졌어요."

이 도구는 **이미지뿐만 아니라 글자 (텍스트)**와 이미지를 비교할 때도 쓸 수 있습니다. (예: "꿀벌 사진"과 "꽃 위에 앉은 꿀벌"이라는 글자가 왜 비슷한지 설명)

4. 어떻게 작동하나요? (간단한 과정)

  1. 참고 대상 설정: 비교할 두 대상 중 하나를 '기준 (Reference)'으로 정합니다.
  2. 무작위 가리기: 다른 한쪽 대상의 일부를 무작위로 가려서 AI 에게 보여줍니다.
  3. 거리 측정: 가려진 상태에서도 기준 대상과 얼마나 가깝거나 먼지 (유사도) 를 측정합니다.
  4. 핵심 찾기: "가렸을 때 거리가 크게 변한 부분"만 모아서 **히트맵 (Heatmap)**으로 보여줍니다.
    • 빨간색: 이 부분을 가리면 두 대상이 아주 달라져요 (중요한 특징).
    • 파란색: 이 부분을 가려도 비슷해요 (중요하지 않은 부분).

5. 실험 결과: 정말 잘 작동할까요?

저자들은 이 방법을 다양한 모델 (이미지 인식 AI, 텍스트 - 이미지 연결 AI 등) 에 적용해 보았습니다.

  • 정확성: AI 가 "비슷하다"고 한 이유를 정확히 찾아냈습니다. (예: 꿀벌과 파리의 날개 차이, 개와 고양이의 눈 모양 차이)
  • 안정성: 같은 사진을 여러 번 분석해도 비슷한 결과가 나옵니다. (AI 가 장난치지 않음)
  • 신뢰성: AI 의 내부 구조를 무작위로 바꿔버리면 설명도 달라집니다. 즉, AI 가 진짜로 학습한 내용을 바탕으로 설명한다는 뜻입니다.

6. 요약: 왜 이 기술이 중요할까요?

이 기술은 AI 가 내린 결정에 대한 투명성을 높여줍니다.

  • 연구자: "왜 이 두 데이터가 비슷한지"를 눈으로 확인하며 연구 효율을 높일 수 있습니다.
  • 일반인: AI 가 왜 "이 약은 당신에게 맞다" 혹은 "이 대출은 거절당했다"고 판단했는지 그 이유를 직관적으로 이해할 수 있습니다.

한 줄 요약:

"AI 가 두 가지가 왜 비슷하거나 다른지, 그 '이유'를 사진의 특정 부분을 가려가며 찾아내어 인간에게 보여주는 새로운 나침반입니다."

연구 분야의 논문에 파묻히고 계신가요?

연구 키워드에 맞는 최신 논문의 일일 다이제스트를 받아보세요 — 기술 요약 포함, 당신의 언어로.

Digest 사용해 보기 →