Explainability of Text Processing and Retrieval Methods: A Survey

이 논문은 자연어 처리 및 정보 검색 분야에서 딥러닝과 머신러닝 모델의 불투명성 문제를 해결하기 위해 단어 임베딩, 시퀀스 모델링, 어텐션 모듈, 트랜스포머, BERT, 문서 순위 결정 등 다양한 기법의 설명 가능성과 해석 가능성에 대한 연구 동향을 광범위하게 조사하고 향후 연구 방향을 제시합니다.

Sourav Saha, Debapriyo Majumdar, Mandar Mitra

게시일 Thu, 12 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 왜 이런 답을 내놓았는지, 우리가 그 이유를 알 수 있을까?"**라는 질문에서 시작합니다.

과거에는 검색 엔진이 "이 문서에 '사과'라는 단어가 5 번 나왔으니 점수를 주자"처럼 단순하고 직관적인 규칙으로 작동했습니다. 하지만 요즘의 최신 AI(딥러닝, 대형 언어 모델) 는 마치 수만 개의 나침반이 복잡하게 얽힌 미로처럼 작동합니다. 결과가 정확하긴 하지만, "왜 이 문서를 1 위로 뽑았는지" 그 내부 과정을 인간이 이해하기가 매우 어렵습니다. 이를 '블랙박스 (Black Box)' 문제라고 부릅니다.

이 논문은 바로 이 블랙박스를 어떻게 투명하게 만들어 (설명 가능하게, Explainable AI) 인간이 이해할 수 있게 할지에 대한 연구들을 총정리한 보고서입니다.

주요 내용을 일상적인 비유로 설명해 드릴게요.


1. 왜 설명이 필요할까요? (블랙박스 vs 투명한 유리상자)

  • 과거 (유리상자): 검색 엔진이 "사과"를 검색하면, "사과"라는 글자가 많이 나오는 문서를 찾아줍니다. 우리는 "아, 글자가 많아서 1 등인가?"라고 쉽게 이해할 수 있습니다.
  • 현재 (블랙박스): 최신 AI 는 문서를 숫자 덩어리 (벡터) 로 변환하고, 수십억 개의 파라미터를 가진 복잡한 신경망을 통과시킵니다. 마치 요리사가 레시피 없이 맛만 보고 요리를 만드는 것과 같습니다. 결과는 맛있지만, "왜 소금 대신 설탕을 넣었는지"를 요리사도 모를 수 있습니다.
  • 이 논문의 목적: AI 가 "이 문서를 1 위로 뽑은 이유"를 우리가 이해할 수 있는 언어 (예: "이 문서에 '애플'과 '주식'이라는 단어가 함께 나왔기 때문입니다") 로 설명해 주는 방법을 연구한 것입니다.

2. 설명하는 방법들은 어떤 것들이 있을까요?

논문은 AI 를 설명하는 여러 가지 방법을 소개합니다.

  • 가짜 친구 (Surrogate Models): 복잡한 AI 대신, **단순한 모델 (예: BM25 같은 전통적 검색)**을 만들어서 "내 복잡한 AI 가 이렇게 작동하는 것 같아요"라고 대변해 주는 방법입니다. 마치 복잡한 수학 문제를 풀어서 답만 알려주는 천재 대신, 초등학생도 이해할 수 있는 쉬운 비유로 설명해주는 선생님을 세우는 것과 같습니다.
  • 하이라이트 펜 (Feature Attribution): AI 가 결정을 내릴 때 어떤 단어가 가장 중요한 역할을 했는지 색칠해 주는 방법입니다.
    • 예시: "이 문서가 좋은 이유는 **'최신'**과 **'리뷰'**라는 단어가 강조되었기 때문입니다."
  • 반대 상황 상상 (Counterfactuals): "만약 이 단어가 없었으면 어땠을까?"를 상상해 보는 방법입니다.
    • 예시: "만약 '최신'이라는 단어를 지우면, 이 문서는 10 위로 떨어집니다. 그러니 '최신'이 핵심입니다!"
  • 비교하기 (Contrastive): "왜 A 문서는 1 등이고 B 문서는 2 등일까?"를 비교하여 차이를 설명합니다.

3. 검색 (Document Ranking) 에서의 설명

문서를 검색해서 순위를 매길 때, AI 가 왜 그렇게 순위를 매겼는지 설명하는 연구들입니다.

  • 전통적 규칙의 부활: 과거의 단순한 규칙 (단어 빈도수 등) 을 다시 가져와서 복잡한 AI 의 행동을 분석합니다.
  • 질문과 답변 (QA): "어디서 열리는가?"라는 질문에 "멜버른"이라고 답했을 때, AI 가 왜 '멜버른'을 선택했는지 그 근거 (문서의 특정 문장) 를 찾아내는 연구도 포함됩니다.

4. 최신 트렌드: RAG(검색을 활용한 생성) 설명하기

최근 AI 는 검색 엔진을 통해 정보를 찾아와서 답변을 생성합니다 (RAG). 이때 중요한 것은 AI 가 답변을 만들 때 어떤 문서를 참고했는지를 보여주는 것입니다.

  • 신뢰성 확인: AI 가 "사과가 건강에 좋다"고 말할 때, 이것이 AI 가 기억한 거짓 정보인지, 아니면 검색한 신뢰할 수 있는 문서에서 가져온 사실인지 구분해야 합니다.
  • 갈등 해결: 검색된 문서와 AI 가 기억하고 있는 정보가 다를 때 (예: 문서에는 "사과가 나쁘다"고, AI 기억에는 "좋다"고), AI 가 어떤 정보를 선택하고 왜 선택했는지 설명해야 합니다.

5. 아직 해결되지 않은 문제들 (미래 과제)

논문은 아직 풀리지 않은 난제들도 지적합니다.

  • 평가 기준 부재: "이 설명이 좋은 설명인가?"를 측정하는 공식적인 시험지가 아직 없습니다. (사람이 좋다고 느끼는 것과 AI 가 정확히 설명하는 것 사이의 간극)
  • 중간 문서의 소외: AI 가 긴 문서를 읽을 때, 처음과 끝은 잘 기억하지만 중간 부분은 잊어버리는 현상 ('Lost in the Middle') 이 있어, 어떤 정보가 중요한지 설명하기 어렵습니다.
  • 전문 분야의 어려움: 의료나 법률 같은 전문 분야에서는 설명이 더 정밀해야 하는데, 이를 위한 연구가 부족합니다.

요약

이 논문은 **"복잡한 AI 의 머릿속을 인간이 이해할 수 있는 언어로 번역하는 방법"**에 대한 지도입니다.
AI 가 단순히 정답만 알려주는 '신비한 오라클'이 아니라, **그 이유를 설명해 주는 '친절한 가이드'**가 되도록 만드는 기술들을 소개하며, 앞으로 더 투명하고 신뢰할 수 있는 AI 를 만들기 위해 어떤 방향으로 연구해야 할지 제안합니다.

한 줄 요약: "AI 가 왜 그런 답을 냈는지, 마치 친구에게 설명하듯 쉽게 알려주는 방법들을 모은 보고서입니다."