Investigating Disability Representations in Text-to-Image Models

본 논문은 Stable Diffusion XL 및 DALL-E 3 를 분석하여 텍스트 - 이미지 생성 모델이 장애인을 어떻게 표현하는지, 그리고 완화 전략이 이러한 표현에 미치는 영향을 감정 분석과 인간 평가를 통해 조사하여 지속적이고 포용적인 장애 묘사를 위한 개선의 필요성을 강조합니다.

Yang Tian, Yu Fan, Liudmila Zavolokina, Sarah Ebling

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 "인공지능이 그림을 그릴 때, 장애인을 어떻게 묘사하는가?" 라는 중요한 질문을 던집니다.

마치 인공지능이 거대한 도서관에서 모든 책을 읽은 뒤, 그 내용을 바탕으로 그림을 그려낸다고 상상해 보세요. 문제는 그 도서관에 있는 책들 속에 우리가 가진 고정관념 (편견) 이 가득하다는 것입니다. 이 연구는 두 가지 주요 실험을 통해 인공지능이 그 '고정관념'을 어떻게 그림으로 옮기는지, 그리고 개발자들이 이를 고치려고 노력했을 때 어떤 일이 벌어지는지 살펴봤습니다.

이 연구의 핵심 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 실험 1: "장애인이 뭐야?"라고 물었을 때 나오는 그림

비유: "요리사에게 '특별한 재료'를 넣으라고 했을 때, 그가 가장 먼저 떠올리는 것"

연구진은 인공지능에게 단순히 "장애가 있는 사람의 사진" 이라고만 요청했습니다. (구체적인 장애 유형은 말해주지 않음)
그런데 인공지능이 그려낸 그림을 보니, 놀랍게도 대부분이 '휠체어를 탄 사람' 이었습니다.

  • 발견: 인공지능은 '장애인'이라는 개념을 들으면, 다른 많은 장애 유형 (시각 장애, 청각 장애 등) 을 생각하지 않고, 가장 눈에 잘 띄는 '휠체어'를 먼저 떠올립니다. 마치 요리사가 "특별한 재료"를 넣으라고 하면, 가장 유명한 '양파'만 생각나는 것과 비슷합니다.
  • 모델 비교:
    • Stable Diffusion (SDXL): 이 모델은 휠체어 이미지에 훨씬 더 강하게 편향되어 있었습니다. (휠체어만 그리는 요리사)
    • DALL·E 3: 이 모델은 휠체어뿐만 아니라 다른 장애 유형도 조금 더 다양하게 그려냈지만, 그래도 휠체어가 여전히 가장 많이 나왔습니다.

결론: 인공지능은 장애를 '휠체어'라는 하나의 이미지로만 축소해버리는 경향이 있습니다.


2. 실험 2: "개발자가 고쳐주려고 노력하면 어떻게 될까?"

비유: "엄격한 규칙을 가진 요리사 vs 자유로운 요리사"

이 실험은 두 가지 다른 모델을 비교했습니다.

  1. Stable Diffusion (SDXL): 규칙이 비교적 느슨한 모델 (자유로운 요리사).
  2. DALL·E 3: 개발자가 "유해한 내용을 막고 다양성을 높이겠다"는 엄격한 안전 장치 (Mitigation) 를 많이 단 모델 (규칙이 엄격한 요리사).

연구진은 '정신 질환 (우울증, 조울증 등)''신체/감각 장애 (휠체어, 시각 장애 등)' 를 그릴 때 두 모델이 어떤 감정을 담았는지 분석했습니다.

A. 자동 분석 vs 사람의 눈 (어떤 차이가 있을까?)

  • 자동 분석 (컴퓨터가 그림을 보고 감정 단어 추출): 컴퓨터는 "표정이 없으니 중립이야"라고 판단했습니다. 하지만 SDXL 이 그린 그림은 어둡고 무거운 느낌이 강했습니다.
  • 사람의 평가 (실제 사람이 그림을 보고 느낌): 사람들은 DALL·E 3 가 그린 그림을 더 어둡고 부정적이라고 느꼈습니다.
    • 왜? DALL·E 3 는 정신 질환을 그릴 때, 배경을 어둡게 하거나 사람을 외롭게 배치하는 등 분위기로 슬픔을 표현했기 때문입니다. 컴퓨터는 얼굴 표정만 보고 "중립"이라고 했지만, 사람은 전체적인 분위기까지 보고 "우울해 보인다"고 느낀 것입니다.

B. 정신 질환 vs 신체 장애 (차별은 어떨까?)

두 모델 모두 정신 질환을 그릴 때 신체 장애를 그릴 때보다 훨씬 더 부정적이고 어두운 분위기로 묘사했습니다.

  • 신체 장애: 밝은 배경, 웃는 얼굴, 일상적인 활동.
  • 정신 질환: 어두운 방, 고립된 모습, 불안한 분위기.

아이러니한 점: DALL·E 3 는 개발자가 "다양하게 그려라"라고 노력했기 때문에 신체 장애는 더 밝고 다양하게 그렸지만, 그 반대로 정신 질환은 오히려 더 극단적으로 어둡고 부정적으로 그려져 두 그룹 사이의 간극이 더 벌어졌습니다. 마치 "다른 건 다 잘 고쳐줬는데, 이 부분만 더 과장해서 표현해버린" 꼴이 된 것입니다.


3. 이 연구가 우리에게 주는 교훈

이 논문은 인공지능이 단순히 중립적인 도구가 아니라고 말합니다. 인공지능은 우리가 만든 데이터와 개발자의 규칙을 그대로 반영합니다.

  1. 고정관념의 재생산: 인공지능은 '장애인'을 볼 때 휠체어만 생각하며, 다른 장애 유형을 무시합니다.
  2. 해결책의 함정: 개발자가 "부정적인 내용을 막자"고 노력하면, 오히려 특정 집단 (이 경우 정신 질환자) 에 대한 편견을 더 강화할 수 있습니다. (예: 정신 질환은 무조건 어둡고 위험하다는 인식을 심어줌)
  3. 사람의 눈이 필요하다: 컴퓨터가 분석한 감정 점수만 믿으면 안 됩니다. 그림의 분위기, 배경, 맥락을 이해하는 사람의 평가가 필수적입니다.

마무리 비유:
인공지능은 거울과 같습니다. 하지만 그 거울은 우리가 만든 데이터라는 '방'을 비추고, 개발자가 만든 '규칙'이라는 필터를 통과합니다. 이 연구는 그 거울이 비추는 모습이 얼마나 왜곡되어 있는지, 그리고 우리가 그 거울을 어떻게 닦아야 더 공정하고 다양한 세상을 비출 수 있을지 알려줍니다.

핵심 메시지: 인공지능이 장애인을 그릴 때, 단순히 "휠체어"나 "어두운 방"이라는 편견을 반복하지 않도록, 우리가 계속 감시하고 수정해야 합니다.