Not Just How Much, But Where: Decomposing Epistemic Uncertainty into Per-Class Contributions

본 논문은 안전-중요 분류에서 실패 비용의 비대칭성을 고려하기 위해 단일 스칼라 상호 정보량을 클래스별 기여도 벡터로 분해하는 새로운 방법론을 제안하고, 당뇨병성 망막병증 선택적 예측, 분포 외 검출, 라벨 노이즈 연구 등 다양한 과제를 통해 이 접근법이 기존 방법보다 우수한 성능을 보임을 입증합니다.

Mame Diarra Toure, David A. Stephens

게시일 2026-02-27
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"AI 가 무엇을 모를 때, 정확히 무엇을 모르는지"**를 찾아내는 새로운 방법을 제안합니다.

기존의 AI 는 "내가 이 문제를 얼마나 잘 모르는지"를 단 하나의 숫자로만 표현했습니다. 하지만 이 논문은 "그 숫자가 어떤 특정 상황에서 나왔는지"까지 세분화해서 알려주는 것이 안전에 훨씬 중요하다고 말합니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴겠습니다.


1. 문제: "모르는 정도"만 알면 안 되는 이유

비유: 위험한 산길의 나침반
여러분이 위험한 산길을 걷는 AI 라고 상상해 보세요.

  • 기존 AI (단순한 나침반): "지금 내가 불확실한 정도가 5 점이야!"라고만 외칩니다.

    • 이 5 점이 '아무것도 없는 평지'에서 나온 것일 수도 있고, '절벽 가장자리'에서 나온 것일 수도 있습니다.
    • 만약 절벽에서 5 점이라면 위험하지만, 평지에서 5 점이라면 그냥 넘어가도 됩니다. 하지만 기존 AI 는 이 차이를 구별하지 못합니다.
  • 이 논문의 AI (정밀한 지도): "내가 절벽 (위험한 질병) 쪽에서는 5 점이나 불확실하지만, 평지 (건강한 상태) 쪽에서는 1 점밖에 불확실하지 않아!"라고 알려줍니다.

    • 이렇게 어떤 부분에서 모르는지를 구체적으로 알려주면, AI 는 위험한 상황일 때만 인간에게 도움을 요청하고, 평범한 상황은 스스로 처리할 수 있습니다.

2. 해결책: 'Ck'라는 새로운 측정 도구

저자들은 이 문제를 해결하기 위해 **Ck (Class-specific Epistemic Uncertainty)**라는 새로운 지표를 만들었습니다.

비유: "무게가 달린 저울"
기존의 방법 (분산, Variance) 은 단순히 "의견이 얼마나 갈라졌나?"만 봅니다. 하지만 문제는 희귀한 질병 같은 경우입니다.

  • 문제점: AI 가 "희귀한 질병"을 전혀 본 적이 없다면, 확률 값이 0% 에 가깝게 됩니다. 이때는 의견이 아무리 갈라져도 (불확실성이 높아도) 수학적으로 '분산' 값이 0 으로 떨어지는 함정에 빠집니다. (마치 빈 그릇에 물을 조금만 넣어도 무게가 0 인 것처럼요.)
  • 이 논문의 해결책 (Ck): "아, 이 질병은 확률이 낮으니 **무게 (1/µk)**를 더 달아주자!"라고 합니다.
    • 확률이 낮은 (희귀한) 클래스일수록 그 불확실성에 더 큰 가중치를 둡니다.
    • 결과적으로 희귀하지만 치명적인 질병을 놓치지 않고, "이건 내가 정말 모르는 거야!"라고 정확하게 경고할 수 있게 됩니다.

3. 실전 효과: 당뇨망막병증 진단에서

이론을 실제 의료 데이터 (당뇨망막병증) 에 적용해 보았습니다.

  • 상황: AI 가 환자의 눈 사진을 보고 "정상 (0 점)"인지 "실명 위험 (3 점)"인지 판단해야 합니다.
  • 기존 AI: "불확실성 0.3"이라고만 하면, "아, 그냥 좀 애매하네"라고 생각해서 위험한 환자를 놓칠 수 있습니다.
  • 새로운 AI (Ck 사용):
    • "이 환자는 **실명 위험 (3 점)**으로 오인할 확률이 높고, 그 불확실성이 매우 커!"라고 정확히 지목합니다.
    • 결과: 위험한 환자를 놓치는 비율 (위험한 실수) 을 기존 방법보다 34.7%~56.2% 까지 획기적으로 줄였습니다.
    • 마치 정밀한 스캐너가 "여기엔 구멍이 났다"고 정확히 짚어주는 것과 같습니다.

4. 추가 발견: "모델의 학습 방식"이 더 중요할 수도 있다

이 논문은 또 다른 놀라운 사실을 발견했습니다.

  • 비유: "좋은 나침반 (측정 도구) 을 쓰는 것도 중요하지만, **나침반을 들고 있는 등산가 (학습된 모델)**가 더 중요할 수 있다."
  • 내용: AI 가 처음부터 끝까지 스스로 학습했을 때 (End-to-end) 는 Ck 가 아주 잘 작동했습니다. 하지만, 이미 다른 일을 배운 모델을 가져와서 마지막 부분만 학습시켰을 때 (전이 학습) 는 Ck 가 제대로 작동하지 않았습니다.
  • 교훈: 측정 도구를 고치는 것보다, AI 가 어떻게 학습하느냐가 불확실성을 정확히 파악하는 데 더 결정적일 수 있습니다.

5. 요약: 왜 이 연구가 중요한가요?

  1. 안전: "얼마나 모르는지"보다 **"무엇을 모르는지"**를 아는 것이 생명과 직결된 분야 (의료, 자율주행 등) 에 필수적입니다.
  2. 정밀함: 희귀한 사건 (치명적인 질병) 을 놓치지 않도록, 확률이 낮은 부분의 불확실성을 더 크게 잡아줍니다.
  3. 현실적 통찰: 단순히 숫자를 개선하는 것을 넘어, AI 가 어떻게 학습하느냐가 불확실성 측정의 정확도를 좌우한다는 점을 깨우쳐 주었습니다.

한 줄 요약:

"AI 가 '모른다'고 할 때, 단순히 '모른다'는 숫자만 보는 게 아니라, '정말 위험한 부분'을 놓치지 않도록 구체적으로 어디를 모르는지 찾아내는 새로운 나침반을 만들었습니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →