Counterfactually Fair Conformal Prediction

이 논문은 점 예측의 반사실적 공정성을 예측 집합으로 확장하여, 합동성 점수 대칭화를 통해 예측 집합 크기의 최소 증가로 반사실적 공정성과 마진 커버리지 보장을 동시에 달성하는 '반사실적 공정 합동 예측 (CF-CP)' 방법을 제안합니다.

Ozgur Guldogan, Neeraj Sarna, Yuanyuan Li, Michael Berger

게시일 2026-03-13
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎩 1. 문제 상황: "예측의 불확실성"과 "불공정함"

우리가 AI 를 사용할 때, 예를 들어 "이 학생의 SAT 점수는 얼마일까?"라고 물어보면 AI 는 보통 하나의 숫자를 알려줍니다. 하지만 AI 는 완벽하지 않죠. "아마 1200 점 정도일 거야"라고 말하면서도, 실제로는 1100 점일 수도 있고 1300 점일 수도 있습니다.

  • 기존의 방법 (점 예측): AI 는 "1200 점"이라고 딱 잘라 말합니다. 하지만 이 숫자가 얼마나 정확한지, 혹은 "만약 이 학생이 다른 성별이었다면 점수가 달라졌을까?"에 대한 고려는 부족합니다.
  • 새로운 방법 (예측 집합): 최근에는 AI 가 "1150 점에서 1250 점 사이일 거야"라고 **범위 (집합)**를 알려주는 '합의 예측 (Conformal Prediction)'이 주목받고 있습니다. 이는 "정확한 숫자는 모르지만, 이 범위 안에 있을 확률이 90% 는 돼"라고 말하는 거죠.

하지만 여기서 문제가 생깁니다.
이 '범위'조차도 공정하지 않을 수 있습니다.

  • 상황: 같은 실력을 가진 두 학생이 있습니다. A 는 '남자', B 는 '여자'입니다.
  • 불공정한 AI: A 에겐 "11501250 점"이라고 예측하고, B 에겐 "11001300 점"이라고 예측할 수 있습니다. 범위가 너무 넓으면 B 는 불확실성을 더 많이 느끼게 되고, 이는 불공정합니다.
  • 심지어 더 나쁜 경우: 만약 AI 가 "만약 B 가 남자였다면 범위가 좁아졌을 텐데"라고 생각하게 만든다면, 이는 AI 가 성별에 따라 불공정하게 판단하고 있다는 뜻입니다.

🛠️ 2. 해결책: "CF-CP" (공정한 예측 집합)

저자들은 이 문제를 해결하기 위해 **CF-CP(Counterfactually Fair Conformal Prediction)**라는 새로운 방법을 만들었습니다.

🪞 비유: "거울 속의 나"를 보는 기술

이 기술의 핵심은 **'반사 (Symmetrization)'**입니다.

  1. 가상의 실험: AI 가 어떤 사람의 예측 범위를 만들 때, 단순히 그 사람만 보는 게 아니라, **"만약 이 사람의 성별 (또는 인종) 이 반대였다면?"**이라는 가상의 시나리오를 만들어봅니다.
    • 예: "현재는 남자지만, 만약 여자였다면 점수 예측 범위는 어땠을까?"
  2. 거울에 비추기: AI 는 실제 상황과 가상의 상황 (거울 속) 두 가지 모두에서 예측 범위를 계산합니다.
  3. 균형 맞추기: 이제 AI 는 두 가지 결과 (실제와 가상) 를 섞어서 하나의 공정한 범위를 만듭니다.
    • 만약 실제 상황에서는 범위가 좁고, 가상 상황에서는 넓다면, 두 가지를 적절히 섞어 두 경우 모두에게 똑같이 적용될 수 있는 중간 범위를 정합니다.

이 과정을 통해 AI 는 **"성별이 바뀌어도 예측 범위는 변하지 않는다"**는 원칙을 지키게 됩니다. 이것이 바로 **'반사적 공정성 (Counterfactual Fairness)'**입니다.

🏆 3. 이 방법의 장점

이 논문은 CF-CP 가 기존 방법들보다 훨씬 훌륭하다고 주장합니다.

  • 🚫 재학습 불필요 (Training-free): 기존에 훈련된 AI 모델을 다시 처음부터 가르칠 필요가 없습니다. 이미 만들어진 AI 에다가 이 '거울 기술'만 붙이면 됩니다. 비용과 시간이 절약됩니다.
  • ⚖️ 정확도 유지: 공정을 위해 AI 의 예측 능력을 희생하지 않습니다. "공정하게 하려면 정확도가 떨어져도 돼"라는 식이 아니라, 정확한 예측을 유지하면서 공정성만 추가합니다.
  • 📏 불필요한 확대 방지: 단순히 모든 경우를 합치면 예측 범위가 너무 커져서 쓸모가 없어질 수 있습니다. 하지만 이 방법은 범위를 불필요하게 키우지 않고, 딱 필요한 만큼만 공정을 확보합니다.

📊 4. 실제 실험 결과

저자들은 이 방법을 가상의 데이터와 실제 데이터 (법대 입학 성적, 직업 예측 등) 에 적용해 보았습니다.

  • 결과: 기존 AI 는 성별이나 인종에 따라 예측 범위가 크게 달랐지만, CF-CP 를 적용하자 두 그룹 간의 예측 범위 차이가 거의 사라졌습니다.
  • 비용: 예측 범위가 아주 조금만 커졌을 뿐, 여전히 유용한 정보를 제공했습니다.

💡 요약: 이 논문이 우리에게 주는 메시지

이 논문은 **"AI 가 불확실한 상황에서 결정을 내릴 때, 그 불확실성 자체가 특정 집단에 불리하게 작용해서는 안 된다"**는 메시지를 전달합니다.

마치 공정한 저울처럼, AI 가 "만약 당신이 다른 배경을 가졌더라도, 내가 너에게 주는 정보 (예측 범위) 는 똑같아야 한다"는 원칙을 세웠습니다. 이 기술은 AI 가 고위험 분야 (의료, 사법, 금융 등) 에서 더 신뢰할 수 있고 공정한 동반자가 될 수 있도록 도와주는 중요한 발걸음입니다.