Interpreting Contrastive Embeddings in Specific Domains with Fuzzy Rules

이 논문은 법적 및 의료 기록과 같은 특정 도메인에서 CLIP 모델의 임베딩을 해석하기 위해 퍼지 규칙 기반 분류 시스템과 텍스트 처리 기법을 결합하여 임상 보고서와 영화 리뷰 데이터로 그 유효성을 검증하고 한계점을 논의합니다.

Javier Fumanal-Idocin, Mohammadreza Jamalifard, Javier Andreu-Perez

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎬 1. 배경: 거대한 도서관과 'CLIP'이라는 슈퍼 도서관 사서

우리는 매일 수많은 텍스트 (의료 기록, 영화 리뷰 등) 를 남깁니다. 컴퓨터가 이걸 이해하려면 글자를 숫자 (벡터) 로 바꿔야 하는데, CLIP이라는 최신 AI 모델이 이 일을 아주 잘합니다.

  • 비유: CLIP 은 **거대한 도서관의 '슈퍼 사서'**입니다. 이 사서는 책 (글) 과 그림을 모두 보고, 내용이 비슷하면 같은 선반에 꽂아둡니다. 예를 들어, "슬픈 영화"라고 쓴 리뷰와 "비 오는 날"이라는 사진이 비슷한 선반에 배치되는 식이죠.
  • 문제점: 이 슈퍼 사서는 아주 똑똑하지만, 특정 분야 (예: 의사의 진료 기록) 에만 쓰이려 하면 실수를 하거나, 왜 그렇게 분류했는지 이유를 말해주지 않습니다. 마치 "이 책을 여기 뒀어"라고만 하고 "왜?"라고 물으면 "그냥 느낌이야"라고 답하는 것과 비슷합니다.

🔍 2. 연구의 목표: 사서의 '감각'을 우리 언어로 번역하기

저희 연구팀은 이 슈퍼 사서 (CLIP) 가 만든 분류 체계 안에서, 우리가 이해할 수 있는 '규칙'을 찾아내려고 했습니다.

  • 목표: "왜 이 환자는 '재활 운동'에 대해 긍정적으로 썼을까?" 혹은 "왜 이 영화 리뷰는 '부정적'일까?"를 CLIP 이 만든 복잡한 숫자 공간에서 찾아내야 합니다.

🧩 3. 해결책: 퍼지 규칙 (Fuzzy Rules) 을 이용한 '매직 미러'

저희는 **'퍼지 규칙 (Fuzzy Rules)'**이라는 도구를 사용했습니다. 이는 딱딱한 '예/아니오'가 아니라, "조금 그렇다", "매우 그렇다" 같은 유연한 기준을 세우는 방법입니다.

  • 비유: CLIP 이 만든 복잡한 숫자 공간을 거울이라고 상상해 보세요. 우리는 이 거울에 비친 모습을 보고, **"감정 (기분)"**이라는 렌즈를 통해 해석하는 매직 미러를 만들었습니다.
    • 입력: 환자의 글 (예: "운동이 조금 힘들지만 효과가 있어요")
    • 분석: 이 글의 '긍정성', '부정성', '주관성'을 측정합니다.
    • 매핑: "아, 이 글은 '긍정'이 높고 '주관성'이 중간이구나. 그럼 CLIP 사서가 이 글을 A 구역 (선반) 에 뒀구나!"라고 규칙을 세웁니다.

🏥 4. 실험: 두 가지 다른 세상

저희는 이 방법을 두 가지 다른 데이터에 적용해 보았습니다.

  1. 뇌졸중 환자의 재활 기록 (임상 데이터):

    • 상황: 환자들이 재활 운동에 대해 어떻게 느끼는지 쓴 글들.
    • 결과: 매우 성공적이었습니다. 환자들의 글이 비슷한 주제 (재활, 통증, 치료) 로 이루어져 있어서, 저희가 만든 '매직 미러'가 CLIP 의 분류 원리를 아주 잘 설명해 주었습니다. "환자가 '통증'을 언급하면 CLIP 은 이쪽 선반에 둔다"는 식의 규칙이 명확하게 나왔습니다.
  2. IMDB 영화 리뷰:

    • 상황: 수만 편의 영화에 대한 다양한 리뷰.
    • 결과: 조금 어려웠습니다. 영화 리뷰는 주제 (액션, 로맨스, 공포) 와 표현 방식이 너무 다양해서, CLIP 이 만든 선반이 너무 복잡해졌습니다. 저희의 '매직 미러'가 모든 것을 설명하기엔 부족했습니다. 마치 한 가지 규칙으로 모든 영화 장르를 설명하려다 보니 혼란이 생긴 것과 같습니다.

💡 5. 핵심 교훈: "정답"보다 "이해"가 중요하다

이 연구에서 얻은 가장 중요한 결론은 다음과 같습니다.

  • AI 는 블랙박스일 필요는 없다: 아무리 복잡한 AI 모델이라도, 우리가 만든 간단한 규칙 (퍼지 규칙) 을 통해 그 내부가 어떻게 작동하는지 이해할 수 있다.
  • 데이터의 다양성이 핵심: 글의 주제가 비슷할수록 (환자 기록처럼) AI 의 생각 과정을 쉽게 해석할 수 있다. 하지만 주제가 너무 다양하면 (영화 리뷰처럼) 해석이 어렵다.
  • 정확도 vs 설명 가능성: AI 가 100% 정확한 답을 내는 것보다, 왜 그 답을 냈는지 인간이 이해할 수 있는 규칙을 만드는 것이 더 중요할 때가 많습니다. (물론 정확도도 중요하지만요!)

🚀 6. 앞으로의 전망

이 방법은 특히 의료 분야에서 큰 잠재력을 가집니다. AI 가 환자의 상태를 진단할 때, "어떤 단어 때문에 이렇게 판단했는지"를 의사나 환자가 이해할 수 있게 해줄 수 있기 때문입니다.

한 줄 요약:

"복잡한 AI 의 머릿속을, 우리가 일상에서 쓰는 '감정'과 '규칙'이라는 언어로 번역해서, AI 가 왜 그렇게 생각했는지 함께 이해해보자!"는 연구입니다.