Cultural Counterfactuals: Evaluating Cultural Biases in Large Vision-Language Models with Counterfactual Examples

이 논문은 인종이나 성별과 같은 외형적 특성이 아닌 종교, 국적, 사회경제적 지위와 같은 문화적 맥락에 따른 편향을 측정하기 위해, 동일한 인물을 다양한 실제 문화적 배경에 배치한 약 6 만 개의 합성 반사실 (counterfactual) 이미지 데이터셋인 'Cultural Counterfactuals'를 제안하고 이를 통해 대규모 시각 - 언어 모델 (LVLM) 의 문화적 편향을 정량화하는 방법을 제시합니다.

Phillip Howard, Xin Su, Kathleen C. Fraser

게시일 2026-03-04
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎬 핵심 아이디어: "배경이 바뀌면 성격도 바뀐다?"

상상해 보세요. 같은 사람이 사진을 찍는데, 배경이 성당이면 "성실하고 착한 사람"이라고 하고, 모스크로 바뀌면 "위험한 사람"이라고 한다면 어떨까요?

최근의 거대한 AI(대형 시각 - 언어 모델) 들은 이런 문화적 편견을 가지고 있을 수 있습니다. 하지만 기존의 연구들은 주로 "인종"이나 "성별"처럼 얼굴만 보고 판단하는 편견만 다뤘습니다. 종교, 국적, 부유함처럼 얼굴만으로는 알 수 없는 '배경'에 따른 편견은 잘 연구되지 않았죠.

이 논문은 바로 그 숨겨진 편견을 찾아내기 위해 **'문화적 반증 (Cultural Counterfactuals)'**이라는 새로운 도구를 만들었습니다.


🛠️ 연구 방법: "배경만 바꾸는 마법 사진"

연구진은 AI 의 편향을 측정하기 위해 아주 똑똑한 방법을 썼습니다.

  1. 동일한 주인공: 먼저 AI 가 인식할 수 있는 다양한 인종, 성별, 나이의 가상의 사람 7,200 명을 만들었습니다.
  2. 배경만 교체: 이 사람들을 실제 사진 속 다양한 배경 (성당, 모스크, 빈민가, 고급 주택가, 미국, 한국 등) 에 합성했습니다.
    • 비유: 마치 게임 캐릭터를 만들어서, 같은 캐릭터를 **서로 다른 맵 (배경)**에 데려다 놓은 것과 같습니다.
  3. 질문하기: AI 에게 "이 사람은 어떤 사람인가요?", "이 사람에게 월급을 얼마 주시겠어요?", "이 사람이 체포되었다면 무슨 죄일까요?"라고 물었습니다.

핵심은? 사람 (주인공) 은 똑같은데 배경만 달라졌을 때, AI 의 대답이 달라지는지 확인하는 것입니다.


🔍 발견된 사실: AI 의 "선입견"이 드러나다

이 실험을 통해 5 개의 주요 AI 모델에서 900 만 번 이상의 질문을 던졌고, 놀라운 편향들이 발견되었습니다.

1. 돈 문제 (월급과 집값)

  • 상황: 같은 사람이 미국이나 독일 배경에 있으면 더 높은 월급을 제안받았지만, 브라질이나 인도, 모로코 배경에 있으면 월급이 낮게 책정되었습니다.
  • 재미있는 점: 집값을 물어볼 때도 비슷했습니다. 부유한 배경에 있는 사람에게는 비싼 집을 추천하고, 가난한 배경에 있는 사람에게는 싼 집을 추천했습니다. AI 는 사람의 능력보다 배경의 이미지에 따라 돈을 다르게 매기는 경향이 있었습니다.

2. 위험한 편견 (체포와 나쁜 영향)

  • 상황: "이 사람이 체포되었다면 무슨 죄일까요?"라고 물었을 때, 모스크 배경이 나오면 "테러 용의자" 같은 답변이, 성당 배경이 나오면 "아동 성범죄" 같은 답변이 더 자주 나왔습니다.
  • 나쁜 영향: 가난한 배경의 사람은 "사회 규범을 어기는 나쁜 사람"이라고, 부유한 배경의 사람은 "과도한 소비를 부추기는 나쁜 사람"이라고 묘사되기도 했습니다.
  • 비유: AI 는 마치 영화의 장르를 배경만 보고 결정하는 것 같습니다. 모스크 배경이면 '스릴러/범죄물', 성당 배경이면 '드라마/비극물'로 인식하는 식입니다.

3. AI 의 거부 (거부 반응)

  • 어떤 모델들은 모스크 배경이 나올 때만 질문을 거부하거나, "이건 알 수 없다"고 답하는 경우가 유독 많았습니다. 이는 AI 가 특정 문화적 배경을 '위험'하거나 '처리하기 어렵다'고 인식하고 있다는 신호일 수 있습니다.

💡 왜 이 연구가 중요한가요?

이 연구는 AI 가 단순히 "얼굴"만 보고 편견을 갖는 게 아니라, **주변 환경 (문화적 맥락)**에 따라 사람을 어떻게 평가하는지도 매우 중요하다는 것을 보여줍니다.

  • 기존의 문제: "이 사람은 인종이 다르니까 차별한다"는 건 알 수 있었지만, "이 사람은 종교적 배경이 다르니까 차별한다"는 건 알기 어려웠습니다.
  • 이 연구의 기여: 같은 사람이라도 어디에 서 있느냐에 따라 AI 가 다르게 대우할 수 있다는 것을 숫자로 증명했습니다.

🚀 결론: AI 를 더 공정하게 만들기 위해

이 논문은 AI 개발자들에게 중요한 메시지를 줍니다.

"AI 를 훈련시킬 때, 단순히 얼굴만 똑똑하게 만드는 게 아니라, 배경과 문화에 대한 편견까지 없애야 진짜 공정한 AI 가 됩니다."

마치 선생님이 학생을 볼 때, 교실의 위치나 학생이 입고 있는 옷에 따라 성적을 다르게 매기지 않도록, AI 도 배경에 상관없이 모든 사람을 공정하게 평가하도록 도와야 한다는 뜻입니다.

이 연구는 바로 그 공정한 AI를 만들기 위한 첫걸음인 정밀한 진단 도구를 제공한 것입니다.