A Visualization for Comparative Analysis of Regression Models

이 논문은 단일 수치 지표의 한계를 극복하고 두 회귀 모델의 오차 분포와 상관관계를 2 차원 공간에서 마할라노비스 거리와 컬러맵을 활용해 시각화함으로써 모델 성능 비교를 더 심층적으로 수행할 수 있는 새로운 방법을 제안합니다.

Nassime Mountasir (ICube), Baptiste Lafabregue (ICube), Bruno Albert (ICube), Nicolas Lachiche (ICube)

게시일 2026-03-23
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 문제: "숫자 점수"는 속임수일 수 있어요 📉

지금까지 우리는 AI 모델의 성능을 볼 때 **MAE(평균 오차)**나 RMSE(평균 제곱근 오차) 같은 숫자 점수만 봤습니다. 마치 학생의 성적을 볼 때 '평균 점수'만 보고 "A 학생이 B 학생보다 낫다"고 판단하는 것과 비슷합니다.

하지만 이 논문은 **"평균 점수만 보면 중요한 비밀이 숨겨져 있다"**고 말합니다.

  • 비유: 두 명의 요리사 (모델 A 와 모델 B) 가 있다고 칩시다.
    • 모델 A: 대부분의 요리는 완벽하지만, 가끔은 불에 타버린 요리를 내옵니다. (평균 점수는 낮지만, 치명적인 실수가 있음)
    • 모델 B: 모든 요리에 약간의 소금 실수가 있지만, 절대로 타버린 요리는 없습니다. (평균 점수는 비슷하지만, 안정적임)
    • 기존 방식: 두 모델의 '평균 맛 점수'만 보면 둘 다 비슷해 보입니다. 하지만 응급실 (의료 진단) 이나 자율주행처럼 실수가 치명적인 상황에서는 '타버린 요리'를 만드는 모델 A 는 절대 쓰면 안 됩니다.

논문은 이런 **치명적인 실수 (Outlier)**나 **예측 방향 (너무 높게 잡았는지, 너무 낮게 잡았는지)**을 숫자만으로는 알 수 없다고 지적합니다.


2. 해결책: "2 차원 오차 지도"를 그려보세요 🗺️

저자들은 두 단계로 나누어 모델을 비교하는 새로운 시각화 방법을 제안합니다.

1 단계: 1 차원 필터링 (박스 플롯) 📦

먼저 모든 모델을 나열해서 '누가 가장 나쁜지'를 가려냅니다.

  • 비유: 12 명의 선수를 한 줄로 세우고, 각자의 실력 분포를 **상자 (Box)**로 표현합니다.
    • 상자가 작고 중앙에 모여 있으면: 일관된 실력 (좋은 모델).
    • 상자가 길거나 바깥에 점 (Outlier) 이 튀어 있으면: 가끔 큰 실수를 하는 모델.
    • 이 단계에서 성적이 너무 나쁜 선수들은 탈락시키고, 상위 2~3 명만 남깁니다.

2 단계: 2 차원 오차 공간 (핵심 아이디어) 🌌

남은 두 명의 좋은 모델을 서로 비교할 때, 단순히 점수만 비교하지 않고 **"두 모델이 같은 실수를 했는지, 서로 다른 실수를 했는지"**를 지도 위에 그려봅니다.

  • 지도의 구조:
    • 가로축 (X): 모델 A 의 오차 (얼마나 틀렸나?)
    • 세로축 (Y): 모델 B 의 오차 (얼마나 틀렸나?)
    • 대각선: 두 모델이 똑같은 오차를 낸 경우.

이 지도를 보면 다음과 같은 비밀이 보입니다:

  1. 누가 더 나을까? 한 모델이 다른 모델보다 오차가 훨씬 큰 영역에 점들이 모여 있으면, 그 모델이 더 나쁜 것입니다.
  2. 어떤 실수를 할까?
    • 점들이 위쪽에 모여 있다면: 모델 B 가 모델 A 보다 더 크게 과대평가 (너무 높게 예측) 했습니다.
    • 점들이 아래쪽에 모여 있다면: 모델 B 가 모델 A 보다 더 크게 과소평가 (너무 낮게 예측) 했습니다.

3. 더 똑똑한 지도: "색깔"과 "마할라노비스 거리" 🎨📐

단순히 점만 찍으면 너무 많아서 구분이 안 됩니다. 그래서 두 가지 기술을 추가했습니다.

A. 색깔로 밀도를 표현 (Heatmap) 🔥❄️

  • 비유: 지도 위의 점들이 불타는 붉은색으로 모여 있는 곳은 "대부분의 데이터가 여기 모여 있다"는 뜻입니다. 차가운 파란색은 "드문드문한 이상치"입니다.
  • 효과: 어디에 가장 많은 실수가 몰려 있는지 한눈에 볼 수 있습니다.

B. 마할라노비스 거리 (Mahalanobis Distance) 📏

  • 문제: 일반적인 거리 (유클리드 거리) 는 "원형"으로 거리를 재서, 데이터가 길쭉하게 늘어져 있을 때 (예: 오차가 서로 상관관계가 있을 때) 정확한 거리를 재지 못합니다.
  • 해결: 마할라노비스 거리는 데이터가 타원형으로 늘어져 있을 때 그 모양을 따라 거리를 재줍니다.
  • 비유:
    • 일반적인 거리: "우산"을 펴고 빗방울을 재는 것 (원형).
    • 마할라노비스 거리: "타원형의 방수포"를 펴서 빗방울을 재는 것 (데이터의 흐름에 맞춰 재는 것).
    • 이 방법을 쓰면, 겉보기엔 멀어 보이지만 실제로는 데이터 흐름상 가까운 점과, 멀어 보이지만 흐름상 이상한 점 (치명적인 오류) 을 정확히 찾아냅니다.

4. 실제 사례: 기계 고장 예측 🏭

논문의 마지막 부분에서는 실제 산업용 기계의 수명 (RUL) 을 예측하는 사례를 들었습니다.

  • 상황: 기계가 언제 고장 날지 예측할 때, **실제로 고장 나기 전에 미리 알리는 것 (과소평가)**은 안전하지만, **고장 나기 전에 "아직 멀었다"고 속이는 것 (과대평가)**은 재앙입니다.
  • 결과: 숫자 점수만 보면 두 모델이 비슷해 보였습니다. 하지만 이 2 차원 지도를 보니, 한 모델은 위험한 과대평가를 자주 했고, 다른 모델은 안전한 과소평가를 자주 했습니다.
  • 결론: 지도를 본 덕분에, 안전이 최우선인 상황에서는 점수가 조금 더 낮아도 안전한 모델을 선택할 수 있었습니다.

💡 한 줄 요약

"숫자 점수 (평균) 만 믿으면 치명적인 실수를 놓칠 수 있습니다. 두 모델의 오차를 지도 위에 그려서, 어디에 실수가 몰려 있고 어떤 방향으로 틀리는지 '눈'으로 확인해야 진짜 좋은 모델을 고를 수 있습니다."