Concerning Uncertainty -- A Systematic Survey of Uncertainty-Aware XAI

이 논문은 불확실성 정량화 방법, 설명 통합 전략, 그리고 평가 관행의 현황을 체계적으로 분석하고, 불확실성 전파와 인간 의사결정을 연결하는 통합된 평가 원칙과 보정 및 반사실적 접근법의 중요성을 강조합니다.

Helena Löfström, Tuwe Löfström, Anders Hjort, Fatima Rabia Yapicioglu

게시일 2026-03-31
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🌟 핵심 비유: "비밀스러운 요리사 vs. 솔직한 요리사"

지금까지의 AI(블랙박스) 는 마치 **정말 맛있는 요리를 해주는 '비밀스러운 요리사'**와 같습니다.

  • 기존 AI: "이 요리는 소고기입니다." (결론만 알려줌)
  • 문제점: 하지만 그 소고기가 정말 신선한지, 아니면 상한 고기를 섞었는지는 말해주지 않습니다. 요리사가 "이거 진짜 소고기야!"라고 외쳐도, 우리가 그 말을 100% 믿을 수 있을까요? 특히 중요한 상황 (병원, 대출 승인 등) 에서는 "그거 진짜 맞나요?"라고 묻고 싶지만, AI 는 "네, 맞아요"라고만 답할 뿐입니다.

이 논문은 이제 AI 가 '솔직한 요리사'가 되어야 한다고 주장합니다.

  • 새로운 AI (불확실성 인식 AI): "이 요리는 소고기입니다. 하지만 제가 80% 확신합니다. 나머지 20% 는 소고기가 아니라 다른 고기일 수도 있거든요. 왜냐하면 제가 본 소고기 데이터가 좀 부족해서요."

이처럼 **결론 (무엇인지) + 확신도 (얼마나 믿을 수 있는지)**를 함께 알려주는 것이 이 논문의 핵심입니다.


🔍 이 논문이 찾아낸 3 가지 주요 방법 (요리사의 설명 방식)

연구진들은 문헌을 조사하며 AI 가 불확실성을 설명하는 세 가지 방식을 발견했습니다.

1. "신뢰도 점수"를 붙여주기 (Assessing Trustworthiness)

  • 비유: 요리사가 "이 요리는 A+ 등급입니다. 하지만 B 등급일 가능성도 10% 있어요"라고 점수를 매겨주는 것입니다.
  • 의미: AI 가 내린 예측이나 설명에 대해 "얼마나 확신하는지"를 숫자나 그래프로 보여줍니다. 사용자가 "아, 이 부분은 90% 확신이라 믿어도 되겠구나"라고 판단할 수 있게 돕습니다.

2. "불확실한 부분은 설명하지 않기" (Constraining Models)

  • 비유: 요리사가 "이 부분은 제가 잘 모르겠으니, 이 부분만은 설명해 드리지 않겠습니다"라고 말하는 것입니다.
  • 의미: AI 가 확신이 없는 영역에서는 억지로 설명을 하지 않거나, 설명의 범위를 좁혀서 사용자가 오해하지 않도록 막아줍니다. "모르는 건 모른다고 말하는 게 더 안전하다"는 철학입니다.

3. "불확실성 그 자체를 설명하기" (Explicitly Communicating)

  • 비유: 요리사가 "이 요리의 맛이 안 좋은 이유는 소고기 자체가 상했을 수도 있고 (데이터 문제), 제가 요리하는 실력이 부족해서일 수도 있어요 (모델 문제)"라고 원인을 구체적으로 설명하는 것입니다.
  • 의미: AI 가 왜 헷갈리는지 그 이유를 분석합니다.
    • 데이터 문제 (Aleatoric): 소고기 자체가 원래 변덕이 심해서 (잡음) 어쩔 수 없는 경우.
    • 지식 부족 (Epistemic): 제가 소고기를 아직 많이 안 봐서 모르는 경우.
    • 이 두 가지를 구분해주면 사용자는 "데이터 문제라면 어쩔 수 없네" 혹은 "모델을 더 공부시켜야겠네"라고 판단할 수 있습니다.

📊 현재 상황과 앞으로의 과제

이 논문은 현재 연구 상황을 다음과 같이 요약합니다.

  • 과거: AI 는 "무조건 정답"인 것처럼 행동했습니다.
  • 현재: "제 답은 80% 맞을 것 같아요"라고 말하기 시작했습니다. (베이지안, 몬테카를로, 컨포멀 예측 등 다양한 기술이 등장)
  • 문제점: 아직까지 "어떻게 평가할지"가 정해지지 않았습니다. 요리사가 "80% 확신"이라고 했을 때, 그게 진짜로 80% 인지를 검증하는 방법이 부족합니다. 또한, 사용자가 이 '확신도'를 어떻게 받아들일지에 대한 연구도 부족합니다.

🚀 미래 전망: "진짜 신뢰할 수 있는 AI"를 위해

연구진은 앞으로 다음과 같은 일이 필요하다고 말합니다.

  1. 공식적인 보증서 발급: "이 설명은 95% 확률로 맞다"는 것을 수학적으로 증명하는 시스템이 필요합니다.
  2. 사용자 테스트: 사람들이 "80% 확신"이라는 말을 듣고 실제로 어떻게 결정을 내리는지 실험해봐야 합니다.
  3. 원인 분석: AI 가 왜 헷갈리는지 (데이터 문제인지, AI 능력 문제인지) 를 명확히 구분해서 알려줘야 합니다.

💡 한 줄 요약

"AI 가 "이게 정답이야!"라고 외치는 것보다, "이게 정답일 가능성이 80% 인데, 그 이유는 ~때문이에요"라고 솔직하게 말하는 것이, 우리가 AI 를 믿고 중요한 결정을 내리는 데 훨씬 더 안전하고 도움이 됩니다."

이 논문은 바로 그 **'솔직한 AI'**를 만드는 방법을 체계적으로 정리한 지도와 같습니다.