From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

본 논문은 SHAP 및 LIME 과 같은 사후 설명 기법이 예측 성능이 높음에도 불구하고 데이터의 인과관계를 왜곡할 수 있음을 181 건의 연구와 시뮬레이션을 통해 입증하며, 이를 가설 검증 도구보다는 가설 생성을 위한 탐색적 도구로만 활용해야 함을 경고합니다.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu

게시일 2026-03-10
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎭 핵심 비유: "완벽한 요리사 vs. 요리사 설명서"

이 논문의 핵심을 이해하기 위해 **'요리사 (AI 모델)'**와 **'요리사 설명서 (Post-hoc Explainer, SHAP/LIME 등)'**를 상상해 보세요.

  1. 요리사 (AI 모델): 아주 맛있는 요리를 만들어냅니다. (예측이 정확합니다.)
  2. 요리사 설명서 (SHAP/LIME): "이 요리를 만든 이유를 설명해 주는 책"입니다. "소금 1 스푼이 맛을 10% 더 좋게 만들었다"라고 적혀 있습니다.

지금까지의 문제:
많은 연구자들이 이 **"요리사 설명서"**를 보고, "아, 소금이 진짜 맛을 내는 핵심 재료구나! 소금을 더 넣으면 요리가 더 맛있겠구나!"라고 결론 내립니다. 즉, 설명서를 실제 요리의 진실 (데이터의 진실) 로 착각한 것입니다.

이 논문이 말하는 진실:
"잠깐만요! 요리사가 소금을 많이 넣었다고 해서, 소금이 진짜 핵심 재료인 것은 아닙니다. 요리사 설명서는 **'요리사가 어떻게 요리를 만들었는지'**는 설명해 줄 수 있지만, **'실제 요리의 맛을 결정하는 과학적 진실'**을 100% 정확히 알려주지는 못합니다."


🔍 이 논문이 발견한 3 가지 놀라운 사실

1. "요리사가 잘 만들면, 설명서도 100% 믿어도 될까?" (아니요!)

요리사가 요리를 아주 맛있게 만들었다면 (모델의 예측 정확도가 높다면), 설명서도 그럴듯해 보입니다. 하지만 정확도가 높다고 해서 설명서가 항상 진실은 아닙니다.

  • 비유: 두 명의 요리사가 똑같이 맛있는 스테이크를 냈다고 칩시다.
    • 요리사 A 는 "소금이 핵심이야!"라고 설명합니다.
    • 요리사 B 는 "후추가 핵심이야!"라고 설명합니다.
    • 둘 다 요리는 똑같이 맛있습니다. 하지만 어느 설명이 진짜 진실 (소금이냐 후추가냐) 인지는 알 수 없습니다.
    • AI 모델도 마찬가지입니다. 예측은 똑같이 잘 나오는데, "어떤 변수가 중요한지"에 대한 설명은 모델마다 완전히 다를 수 있습니다.

2. "왜 설명서가 엉망이 될까?" (데이터의 복잡성 때문)

설명서가 틀리는 주범은 데이터의 복잡함과 **Rashomon 효과 (라시모노 효과)**입니다.

  • 라시모노 효과란?

    • 영화 <라시모노>처럼, 같은 사건을 목격해도 사람마다 다른 진술을 하는 것처럼, 동일한 데이터를 보고 똑같이 잘 예측하는 AI 모델들이 여러 개 존재할 수 있다는 뜻입니다.
    • 이 모델들은 서로 다른 방식으로 데이터를 해석합니다. (예: A 모델은 "연령대가 중요해"라고 하고, B 모델은 "소득이 중요해"라고 합니다.)
    • 데이터에 상관관계 (예: 소득과 학력이 비례함) 가 있거나, 복잡한 관계 (비선형성) 가 있으면, AI 는 여러 가지 다른 "진실"을 만들어낼 수 있습니다.
  • 결론: AI 모델이 예측을 잘한다고 해서, 그 모델이 선택한 "이유"가 유일한 진실은 아닙니다.

3. "그럼 어떻게 해야 할까?" (진실 확인법)

연구자들은 AI 설명서를 보고 "이게 진실이야!"라고 외치지 말고, "다른 AI 모델들도 같은 말을 하는지" 확인해야 합니다.

  • 진단법 (Rashomon Agreement):
    • 똑같이 잘 예측하는 AI 모델 10 개를 만들어보세요.
    • 이 10 개 모델이 모두 "소금이 핵심이다"라고 입을 모아 말한다면? -> 신뢰할 만합니다.
    • 10 개 모델 중 5 개는 "소금", 5 개는 "후추"라고 말한다면? -> 위험합니다! 데이터가 너무 복잡해서 AI 가 혼란을 겪고 있다는 신호입니다. 이때는 설명서를 믿지 말고, 더 엄격한 통계적 검증이 필요합니다.

💡 이 논문이 비즈니스 연구자들에게 주는 조언

이 논문은 AI 설명 도구 (SHAP, LIME) 를 **"진실을 증명하는 도구"**가 아니라, **"가설을 찾는 나침반"**으로 바꿔서 써야 한다고 말합니다.

  • ❌ 잘못된 사용: "AI 가 소금이 중요하다고 했으니, 소금이 매출에 영향을 미치는 진실이다. 그래서 소금 마케팅을 한다." (증명하려는 시도)
  • ✅ 올바른 사용: "AI 가 소금이 중요하다고 했네? 흥미롭군! 이건 하나의 가설이야. 이제 이 가설을 검증하기 위해 실제 실험이나 엄격한 통계 분석을 해봐야겠다." (탐색 도구)

📝 한 줄 요약

"AI 가 예측은 잘해도, 그 이유를 설명하는 말은 종종 착각일 수 있습니다. 여러 AI 가 같은 말을 할 때만 믿고, 그 말은 '진실'이 아니라 '추측'으로 받아들이세요."

이 논문은 우리가 AI 의 설명에 너무 쉽게 속아, 잘못된 비즈니스 결정을 내리는 것을 막아주기 위한 중요한 경고입니다.