VR-FuseNet: A Fusion of Heterogeneous Fundus Data and Explainable Deep Network for Diabetic Retinopathy Classification

이 논문은 불균형 데이터를 해결하기 위해 다섯 개의 공개 데이터셋을 통합하고 SMOTE 및 CLAHE 전처리를 적용한 후, VGG19 와 ResNet50V2 의 장점을 결합한 하이브리드 딥러닝 모델 'VR-FuseNet'을 제안하여 당뇨병성 망막병증 분류 정확도를 91.824% 로 높이고 XAI 기법을 통해 임상적 해석 가능성을 확보한 연구입니다.

Shamim Rahim Refat, Ziyan Shirin Raha, Shuvashis Sarker, Faika Fairuj Preotee, MD. Musfikur Rahman, Tashreef Muhammad, Mohammad Shafiul Alam

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 문제 상황: 왜 새로운 모델이 필요할까요?

당뇨병이 심해지면 눈의 미세 혈관이 손상되어 실명할 수 있습니다. 이를 조기에 발견하는 것이 가장 중요하지만, 기존에 있던 AI 들은 몇 가지 문제가 있었습니다.

  • 편향된 학습: 특정 병원이나 카메라로 찍은 사진만 많이 봐서, 다른 환경의 사진을 보면 헷갈려 했습니다. (예: 한국인 얼굴만 보고 훈련된 AI 가 서양인 얼굴을 못 보는 것)
  • 데이터 불균형: '정상' 사진은 많지만, '심각한 병' 사진은 너무 적어서 AI 가 병을 잘 못 찾았습니다.
  • 블랙박스 문제: AI 가 "병이다"라고 말해도, "왜 병이라고 판단했는지" 그 이유를 설명해 주지 못해 의사가 믿기 어려웠습니다.

2. 해결책 1: "다양한 경험"을 쌓은 데이터 (하이브리드 데이터셋)

이 연구팀은 5 개의 서로 다른 공개 데이터셋 (APTOS, DDR, IDRiD 등) 을 모두 합쳐 **거대한 '하이브리드 데이터셋'**을 만들었습니다.

  • 비유: 한 명의 학생이 한 학교의 시험지만 보고 공부하는 대신, 전 세계 5 개 학교의 다양한 시험지를 모두 모아 공부하게 한 것입니다.
  • 효과: 이렇게 하면 AI 는 어떤 카메라로 찍었든, 어떤 조명 조건이든 상관없이 눈의 병변을 정확히 찾아낼 수 있는 '범용성'을 갖게 됩니다.

3. 해결책 2: 데이터 정제 (SMOTE 와 CLAHE)

데이터를 그대로 쓰기엔 문제가 있었습니다.

  • SMOTE (데이터 균형 맞추기): '정상' 사진은 많고 '심각한 병' 사진은 적어서 AI 가 병을 간과하기 쉽습니다. 연구팀은 SMOTE라는 기술을 써서 적은 병 사진들을 인위적으로 늘려주었습니다.
    • 비유: 반에서 '수학 잘하는 학생'은 많고 '수학 못하는 학생'은 1 명뿐이라서 선생님이 수학을 가르칠 때 '잘하는 학생'만 보고 가르친다면 '못하는 학생'을 놓치게 됩니다. 그래서 '못하는 학생'의 유형을 분석해서 비슷한 학생들을 몇 명 더 만들어 반을 균형 있게 만든 것입니다.
  • CLAHE (사진 선명하게 하기): 눈 사진은 빛이 어둡거나 흐릿한 경우가 많습니다. CLAHE 기술을 써서 사진의 대비를 높여 병변 (출혈, 흰 반점 등) 이 선명하게 보이도록 했습니다.
    • 비유: 안경이 흐릿하거나 어두운 사진을 선명하게 다듬어, 병변이 마치 돋보기로 본 것처럼 뚜렷하게 보이게 한 것입니다.

4. 해결책 3: 두 명의 천재가 팀을 이루다 (VR-FuseNet)

이 모델의 핵심은 VGG19ResNet50V2라는 두 가지 유명한 AI 모델을 합친 것입니다.

  • VGG19: 아주 작은 디테일 (미세한 혈관, 작은 출혈) 을 잘 보는 **'세밀함의 전문가'**입니다.
  • ResNet50V2: 전체적인 구조와 큰 그림을 잘 파악하는 **'맥락의 전문가'**입니다.
  • 비유: 한 명은 "이곳에 작은 점 하나가 있어요"라고 말하고, 다른 한 명은 "전체적으로 이 부분이 이상해 보여요"라고 말합니다. 이 두 사람이 **팀 (Fusion)**을 이루어 의견을 합치면, 혼자 일할 때보다 훨씬 정확하고 신뢰할 수 있는 진단을 내릴 수 있습니다.
  • 결과: 이 모델은 91.8% 의 정확도를 달성하여 기존 단일 모델들보다 더 뛰어난 성능을 보였습니다.

5. 해결책 4: "왜?"라고 답해주는 설명 가능한 AI (XAI)

기존 AI 는 "병입니다"라고만 말했지만, 이 모델은 Grad-CAM 같은 기술을 써서 "왜 병이라고 생각했는지" 눈으로 보여줍니다.

  • 비유: 의사가 "이 환자는 폐렴입니다"라고 말할 때, 단순히 말만 하는 게 아니라 흉부 X-ray 사진 위에 빨간색 하이라이트 펜으로 "여기, 이 부분이 흰색으로 변해있어서 폐렴입니다"라고 표시해 주는 것과 같습니다.
  • 효과: AI 가 미세혈관 확장, 출혈, 흰 반점 (삼출물) 같은 병변을 정확히 지적해 주므로, 실제 의사가 AI 의 판단을 신뢰하고 검증할 수 있습니다.

6. 결론: 앞으로의 전망

이 연구는 단순히 "정확도 높은 AI"를 만드는 것을 넘어, 의사들이 실제로 쓸 수 있는 신뢰할 수 있는 도구를 만들었습니다.

  • 현재: 다양한 데이터로 훈련된 '범용 AI'가 병변을 정확히 찾고, 그 이유를 시각적으로 보여줍니다.
  • 미래: 아직 계산 비용이 많이 들고, 데이터 불균형 문제가 완전히 해결된 것은 아닙니다. 앞으로는 더 발전된 기술 (비전 트랜스포머 등) 을 도입하고, 가상의 데이터를 만들어 불균형을 더 완벽하게 해결하여 전 세계 어디서든 실용화되길 기대합니다.

한 줄 요약:

"다양한 눈 사진을 모아 훈련시키고, 두 명의 AI 전문가를 팀으로 묶어 정밀하게 진단하며, 의사에게 '왜 병인지' 사진으로 설명해 주는 믿을 수 있는 AI 의사를 개발했습니다."