Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions

이 논문은 현재 XAI 의 근본적 한계와 모순을 지적하고, 사후 설명을 넘어 검증 중심의 대화형 AI, AI 인식론, 사용자 중심 AI, 모델 중심 해석성이라는 네 가지 축을 통해 신뢰할 수 있는 AI 개발을 위한 새로운 패러다임 전환을 제안합니다.

Saleh Afroogh, Seyd Ishtiaque Ahmed, Petra Ahrweiler, David Alvarez-Melis, Mansur Maturidi Arief, Emilia Barakova, Falco J. Bargagli-Stoffi, Erdem Biyik, Hanjie Chen, Xiang 'Anthony' Chen, Robert Alan Clements, Keeley Crockett, Amit Dhurandhar, Fethiye Irmak Dogan, Mollie Dollinger, Motahhare Eslami, Aldo A Faisal, Arya Farahi, Melanie F. Pradier, Saadia Gabriel, Diego Garcia-Olano, Marzyeh Ghassemi, Shaona Ghosh, Hatice Gunes, Ehsan Hajiramezanali, Stefan Haufe, Biwei Huang, Angel Hwang, Md Tauhidul Islam, Junfeng Jiao, Amir-Hossein Karimi, Saber Kazeminasab, Anastasia Kuzminykh, William La Cava, Brian Y. Lim, Xiaofeng Liu, Mohammad R. K. Mofrad, Alicia Parrish, Maria Perez-Ortiz, Shriti Raj, Swabha Swayamdipta, Salmonn Talebi, Kush R. Varshney, Mihaela Vorvoreanu, Lily Weng, Alice Xiang, Yiming Xu, Ding Zhao, Jieyu Zhao

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🚨 문제: "설명"이라는 이름의 사기극?

지금까지 우리는 AI 가 왜 그런 결정을 내렸는지 알려달라고 요구해 왔습니다. 이것이 바로 **XAI(설명 가능한 인공지능)**입니다. 하지만 이 논문은 "지금 우리가 하는 '설명'은 사실 사기극에 가깝다"고 말합니다.

🍕 비유: "피자 가게의 비밀 레시피"

가상 피자 가게에 AI 가 있습니다. 이 AI 는 "이 피자에 페퍼로니가 들어가야 맛이 좋다"고 말합니다.

  • 현재의 XAI 방식: 개발자가 AI 의 내부 코드를 못 보니까, "페퍼로니가 들어간 피자는 과거에 많이 팔렸어"라고 가상의 설명을 붙여줍니다.
  • 논문의 지적: 이 설명은 AI 가 실제로 어떻게 생각한 건지 (내부 작동 원리) 와는 전혀 다를 수 있습니다. AI 는 단순히 "페퍼로니"라는 단어와 "맛있다"는 단어가 자주 같이 나오는 것을 통계적으로 기억했을 뿐일지도 모릅니다.
  • 결과: 우리는 AI 가 피자를 잘 만든다고 착각하지만, 사실은 AI 가 통계적 우연을 '이유'라고 속이고 있는 것입니다.

🔍 왜 지금 방식이 실패했을까? (3 가지 치명적인 결함)

논문에 따르면 현재의 XAI 는 세 가지 큰 병에 걸려 있습니다.

  1. 진짜 vs. 쉬운 것의 딜레마 (Deep-Superficial Paradox)

    • 진짜 설명: AI 의 복잡한 뇌세포 (뉴런) 작동 원리를 설명하면 너무 어렵습니다. 일반인도, 전문가도 이해 못 합니다. (정확하지만 쓸모없음)
    • 쉬운 설명: 이해하기 쉽게 "이게 중요해요"라고 요약하면, 사실과 달라서 틀린 정보가 됩니다. (이해는 되지만 거짓말)
    • 결론: 우리는 '정확한 거짓말'을 하고 있는 셈입니다.
  2. 원인과 상관관계의 혼동

    • AI 는 '원인 (왜 그런지)'을 모릅니다. 단지 '상관관계 (함께 나타나는 것)'만 봅니다.
    • 비유: "우산이 많이 팔리면 비가 온다"는 통계는 맞지만, 우산이 비를 부르는 건 아닙니다. AI 는 우산이 비를 부른다고 설명할 수 있습니다. 이것이 과학적 설명이 아닙니다.
  3. 신뢰의 함정

    • 사람들은 AI 가 "이렇게 생각했어요"라고 설명하면 더 믿습니다. 하지만 연구에 따르면, 잘못된 설명이 붙어있을 때 오히려 사람들은 AI 의 실수를 더 못 찾아냅니다. 설명이 있다는 게 오히려 독이 되는 것입니다.

🚀 해결책: "설명"을 버리고 "검증"으로 가자 (Post-XAI)

이 논문은 "AI 의 블랙박스 (내부) 를 열어서 설명하는 것"을 포기하고, 네 가지 새로운 방향으로 나아가야 한다고 제안합니다.

1. 🤝 대화형 AI (Interactive AI): "설명서"가 아닌 "검증자"

  • 비유: 약을 처방할 때, 환자가 약의 화학 구조를 다 이해할 필요는 없습니다. 대신 **의사 (전문가)**가 "이 약은 안전하고 효과가 입증되었습니다"라고 검증해 주면 됩니다.
  • 핵심: AI 가 "왜 그랬나요?"라고 설명하는 대신, 전문가들이 AI 의 결과를 실시간으로 검증하고 인증하는 시스템을 만듭니다. 사용자는 AI 자체를 이해할 필요 없이, 검증된 결과를 믿고 사용하면 됩니다.

2. 🧠 AI 인식론 (AI Epistemology): "지식"의 기준 세우기

  • 비유: AI 가 쓴 논문이 진짜 과학인지, 그냥 통계적 우연인지 구별하는 새로운 과학 철학이 필요합니다.
  • 핵심: AI 가 만들어낸 지식이 진짜 '과학적 지식'인지, 아니면 그냥 '데이터 패턴'인지 엄격하게 따지는 기준을 만들어야 합니다.

3. 👥 사용자 맞춤형 AI (User-Sensible AI): "일률적인 설명"은 없다

  • 비유: 아이에게 복잡한 물리 법칙을 설명할 수 없습니다. 아이는 그림책으로, 의사는 전문 용어로, 일반인은 쉬운 말로 설명해야 합니다.
  • 핵심: 모든 사람에게 똑같은 '설명'을 주는 게 아니라, 누가 보느냐에 따라 (아이, 의사, 일반인) 다른 방식의 소통을 해야 합니다.

4. 🔬 모델 중심 해석 (Model-Centered Interpretability): "개발자를 위한 도구"

  • 비유: 자동차 정비사가 엔진을 뜯어보는 건 '고객에게 설명하기 위함'이 아니라, 고장을 고치고 성능을 높이기 위함입니다.
  • 핵심: AI 내부 분석은 일반 사용자에게 '설명'을 주기 위한 것이 아니라, 개발자가 AI 를 디버깅하고 고치기 위한 도구로만 사용해야 합니다. "이게 왜 그런지"를 세상에 떠들지 말고, 개발자가 몰래 고치면 됩니다.

💡 요약: 우리가 배워야 할 교훈

이 논문의 결론은 매우 명확합니다.

"AI 가 어떻게 작동하는지 (블랙박스 내부) 를 완벽하게 설명하려 애쓰는 것은 시간 낭비이자 위험합니다. 대신, AI 가 내린 결과가 전문가에 의해 검증되었는지, 그리고 그 결과가 사용자에게 안전한지 확인하는 시스템으로 바꿔야 합니다."

우리는 AI 를 신비로운 마법처럼 설명하려 하지 말고, 검증된 도구처럼 다뤄야 합니다. 설명서 (XAI) 를 버리고, 검증된 인증서 (IAI) 를 받아들이는 시대가 온 것입니다.