An Experimental Study on Fairness-aware Machine Learning for Credit Scoring Problems

이 논문은 신용평가 맥락에서 기존의 전통적 분류 모델보다 예측 정확도와 공정성 간의 균형을 더 잘 달성하는 공정성 인식 머신러닝 모델의 성능을 다양한 데이터셋과 측정 지표를 통해 종합적으로 실험 평가한 연구입니다.

Huyen Giang Thi Thu, Thang Viet Doan, Ha-Bang Ban, Tai Le Quy

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🏦 1. 배경: 은행의 자동화 시대와 숨겨진 편견

과거에는 은행 직원이 손으로 서류를 하나하나 검토하며 대출을 승인했습니다. 하지만 이제는 **AI(머신러닝)**가 대신합니다. AI 는 훨씬 빠르고 정확하죠.

하지만 여기서 문제가 생깁니다. AI 는 과거 데이터를 학습하는데, 그 데이터 속에 '인종'이나 '성별' 같은 편견이 숨어 있을 수 있습니다.

비유: AI 를 새로운 요리사라고 상상해 보세요. 이 요리사가 과거의 레시피 (데이터) 를 보고 요리를 배웠는데, 과거 레시피에 "여자는 매운 요리를 못 만든다"는 편견이 있었다면, AI 요리사도 여성 고객에게는 매운 요리를 주지 않거나 불합격 처리할 수 있습니다. 이것이 **불공정 (Bias)**입니다.

이 연구는 "AI 가 대출 심사를 할 때 성별에 따라 불공정하게 대우하지 않는지, 그리고 어떻게 고칠 수 있는지"를 다양한 실험을 통해 확인했습니다.

🧪 2. 실험 방법: 5 가지 재료를 이용한 요리 대회

연구진은 5 개의 실제 대출 데이터셋 (다양한 나라와 상황의 고객 정보) 을 준비했습니다. 그리고 이 데이터로 세 가지 방식의 AI 모델을 만들어 비교했습니다.

  1. 전처리 (Pre-processing): 데이터를 AI 에 넣기 전에 정제하는 방법.
    • 비유: 요리 재료 (데이터) 를 다듬을 때, 성별 정보가 섞인 라벨을 떼어내거나, 여성과 남성 재료의 양을 똑같이 맞춰서 넣는 것입니다.
  2. 학습 중 처리 (In-processing): AI 가 배우는 과정에서 공정성을 규칙으로 추가하는 방법.
    • 비유: 요리사가 요리를 배우는 동안, "성별과 상관없이 맛있게 만들어야 한다"는 엄격한 규칙을 가르치는 것입니다.
  3. 후처리 (Post-processing): AI 가 결론을 내린 후, 결과를 수정하는 방법.
    • 비유: 요리사가 요리를 다 만들고 "이건 여성에게 너무 맵네?"라고 생각하면, 마지막에 고추를 덜어내거나 양념을 다시 하는 것입니다.

📊 3. 주요 발견: "공정함 vs 정확함"의 줄다리기

연구진은 8 가지의 다양한 '공정성 측정 도구'를 사용해서 각 모델이 얼마나 공정한지, 그리고 대출 심사를 얼마나 잘 맞췄는지 (정확도) 를 평가했습니다.

🏆 승자: 'AdaFair'라는 모델

  • 대부분의 다른 모델들은 "공정하게 하려고 하면 정확도가 떨어지고, 정확하게 하려고 하면 불공정해진다"는 딜레마에 빠졌습니다.
  • 하지만 AdaFair라는 모델은 두 마리 토끼를 다 잡았습니다. 정확도도 높으면서 공정성도 매우 훌륭했습니다.
  • 비유: 다른 요리사들은 "맛을 내면 매운맛이 사라지고, 매운맛을 살리면 맛이 없어진다"고 고민했지만, AdaFair 는 "매우 맛있으면서도 모든 사람에게 똑같이 맛있는 요리를 만드는" 천재 요리사였습니다.

⚠️ 주의할 점: LFR 모델

  • 'LFR'이라는 모델은 공정성 점수는 완벽하게 0(완전 공정) 을 냈지만, **정확도는 50% (동전 던지기 수준)**로 떨어졌습니다.
  • 비유: "성별과 상관없이 무조건 50% 확률로 승인해 주는" 모델입니다. 공정하긴 하지만, 실제로 누가 돈을 갚을지 예측하는 능력은 없는 셈이죠.

📝 4. 결론 및 시사점

이 논문의 핵심 메시지는 다음과 같습니다.

  1. 편견은 자연스럽습니다: 우리가 사용하는 데이터 (재래시장의 재료) 에는 이미 성별이나 인종에 따른 편견이 숨어 있습니다. AI 는 이를 그대로 학습합니다.
  2. 공정성을 위한 기술은 존재합니다: 데이터를 다듬거나, 학습 규칙을 바꾸거나, 결과를 수정하는 기술로 편견을 줄일 수 있습니다.
  3. 가장 좋은 방법은 'AdaFair' 스타일: 무작정 공정성만 강조하면 예측 능력이 떨어집니다. 정확함과 공정함 사이의 균형을 잡는 'AdaFair' 같은 접근 방식이 가장 현실적입니다.

🔮 5. 앞으로의 과제

연구진은 "우리는 아직 성별과 인종 등 하나의 요소만 봤을 뿐"이라고 말합니다. 앞으로는 성별, 인종, 나이, 지역 등 여러 요소가 겹친 상황에서도 공정한 AI 를 만드는 연구가 필요하다고 합니다.

한 줄 요약:
"AI 가 대출 심사를 할 때 성별 편견을 없애는 것은 가능하지만, 단순히 편견만 지우면 예측 능력이 떨어집니다. 정확함과 공정함이라는 두 마리 토끼를 모두 잡을 수 있는 'AdaFair' 같은 기술이 미래의 핵심입니다."