Investigating Disability Representations in Text-to-Image Models

本研究通过分析 Stable Diffusion XL 和 DALL-E 3 的生成结果,揭示了当前文生图模型在残障群体表征上存在的持续失衡问题,并强调了通过持续评估与优化以推动更具包容性描绘的必要性。

Yang Tian, Yu Fan, Liudmila Zavolokina, Sarah Ebling

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一次**“给 AI 照镜子”**的实验,看看当我们要 AI 画“残疾人”时,它脑子里到底在想什么。

想象一下,你让两个不同的画家(AI 模型)画一幅画,主题分别是“一个有残疾的人”和“具体的某种残疾(比如坐轮椅、盲人、聋人)”。研究者发现,这两个画家虽然画得都很像样,但他们的“脑回路”里藏着不少刻板印象。

以下是这篇论文的核心发现,用大白话和比喻来解释:

1. 两个“画家”是谁?

  • 画家 A (Stable Diffusion XL / SDXL): 这是一个开源的画家,就像是一个在“互联网大杂烩”里自学成才的艺术家。他看过网上所有的图,但没人专门教他怎么避开偏见,所以他的画里保留了更多原始数据里的“老观念”。
  • 画家 B (DALL·E 3): 这是一个由大公司(OpenAI)精心调教的画家。在他开始画画前,老板给他设了很多“安全围栏”和“过滤网”,告诉他:“别画暴力的,别画有偏见的,要多样化。”

2. 实验一:当 AI 听到“残疾人”时,它先想到什么?

研究者让两个画家画“一个有残疾的人”(不指定具体类型)。

  • 发现: 两个画家不约而同地,90% 以上都画了坐轮椅的人
  • 比喻: 这就像如果你让一个老式搜索引擎搜“科学家”,它可能只给你出“穿白大褂的白人男性”一样。在这里,AI 觉得“残疾人”的默认皮肤就是“坐轮椅”。
  • 盲人与聋人去哪了? 当你专门要求画“盲人”或“聋人”时,AI 也能画出来,但当你只说“残疾人”时,它们很少主动画这些。
  • 谁更“固执”? 画家 A (SDXL) 更固执,它画的轮椅人比例更高,几乎把“残疾”等同于“坐轮椅”。画家 B (DALL·E 3) 稍微灵活一点,虽然也爱画轮椅,但偶尔也会画点别的,多样性稍微好那么一点点。

3. 实验二:AI 给“心理疾病”和“身体残疾”画了什么脸色?

这次研究者让画家画“抑郁症”、“焦虑症”等心理疾病,并对比画“盲人”、“坐轮椅”等身体/感官残疾

  • 身体残疾的画风: 两个画家都倾向于把盲人、聋人画得比较阳光、积极。比如画他们在明亮的户外,或者脸上带着微笑。这有点像在说:“看,他们虽然身体有不便,但生活很美好。”
  • 心理疾病的画风: 画风突然变了!两个画家都倾向于把心理疾病画得阴郁、压抑
    • 画家 A (SDXL): 自动分析觉得它画得挺中性,但人类评委觉得它画得有点消极。
    • 画家 B (DALL·E 3): 这里有个有趣的反转。虽然它的“安全围栏”很严,但人类评委觉得它画的心理疾病更消极
    • 为什么? 因为画家 B 画得太“有氛围感”了。它会给心理疾病患者配上昏暗的房间、孤独的背影、压抑的色调。虽然它没画“疯子”,但这种“孤独感”的渲染,让人类评委觉得更沉重、更负面。

4. 核心冲突:机器眼 vs. 人类心

  • 机器的眼睛(自动分析): 机器看画,主要看“脸上有没有哭”、“表情是不是悲伤”。如果脸上没表情,机器就觉得是“中性”的。
  • 人类的心(人工评估): 人类看画,会看整体氛围。哪怕脸上没哭,但如果背景是黑漆漆的,人缩在角落里,人类就会觉得:“这画得好悲伤啊。”
  • 结论: 画家 B (DALL·E 3) 虽然被要求“不要有偏见”,但它为了表现“心理疾病的复杂性”,反而用更丰富的背景(黑暗、孤独)去渲染,结果在人类眼里,它反而比那个“直男癌”画家 A 画得更让人难受。

5. 这篇论文想告诉我们什么?

  1. AI 不是中立的镜子: 它是一面哈哈镜。它把“残疾人”主要扭曲成了“坐轮椅的人”,忽略了盲、聋等其他群体。
  2. “管得严”不一定全是好事: 开发者给 AI 加了很多“过滤器”(比如 DALL·E 3),虽然防止了明显的仇恨言论,但有时反而会让 AI 用一种更隐蔽、更夸张的方式去强化刻板印象(比如把心理疾病画得特别孤独)。
  3. 我们需要更聪明的评估: 不能光靠机器自动打分,必须让人类(尤其是残疾人自己)来参与评价,因为机器看不懂“氛围”和“隐喻”。

总结

这就好比我们在教一个刚出生的孩子(AI)认识世界。如果我们只给它看“坐轮椅的人”的照片,它就会以为全世界残疾人都坐轮椅。如果我们教它“心理疾病”时,只给它看阴暗角落的照片,它就会觉得心理疾病就是“黑暗和孤独”。

这篇论文提醒我们:在 AI 生成内容的时代,我们需要更小心地审视它画出的每一笔,确保它不是在无意中加深了社会的偏见,而是真正展现了人类经验的多样性。