What Is the Point of Equality in Machine Learning Fairness? Beyond Equality of Opportunity

该论文批判了机器学习公平性研究过度依赖分配平等的局限,指出其无法解释代表性伤害的伦理问题,进而提出一种融合分配与关系平等的多元平等主义框架,以通过挑战结构性不平等来更全面地应对算法系统带来的各类伤害。

Youjin Kong

发布于 2026-02-27
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章探讨了一个核心问题:为什么人工智能(AI)中的“不公平”是错的?我们到底应该追求什么样的公平?

作者认为,目前大多数关于"AI 公平”的研究,就像是在玩一个**“分蛋糕”**的游戏。他们只关心蛋糕(机会、资源、工作)是不是分得一样多。但作者指出,这种想法太片面了,特别是对于现在的生成式 AI(比如能画图、写故事的模型)。

为了让你更容易理解,我们可以把 AI 系统想象成**“一个巨大的、不知疲倦的餐厅服务员”**。

1. 旧观念:只关心“分蛋糕”(分配公平)

目前的公平研究主要关注分配公平(Distributive Equality)

  • 比喻:想象餐厅里有一堆蛋糕(工作机会、贷款、广告位)。如果服务员把蛋糕分给白人时多,分给黑人时少,大家就会说:“这不公平!蛋糕没分匀!”
  • 做法:为了公平,我们调整算法,确保每个人得到的蛋糕数量一样多,或者确保每个人拿到蛋糕的“概率”一样。
  • 局限:这就像只关心**“谁吃到了多少”**。但如果服务员在分蛋糕的同时,还对着某些客人做鬼脸、贴标签,甚至把某些客人当成隐形人呢?光分匀蛋糕,解决不了这个问题。

2. 新发现:除了蛋糕,还有“眼神”和“标签”(代表性伤害)

作者指出,AI 造成的伤害有两种:

  1. 分配性伤害(Allocative Harm):就是上面说的,没分到蛋糕(比如被拒绝贷款、看不到招聘广告)。
  2. 代表性伤害(Representational Harm):这是旧理论忽略的。它是指 AI 在**“怎么描述你”**。
    • 刻板印象(Stereotyping):比如 AI 画“医生”全是男的,画“护士”全是女的。这就像服务员一边给你蛋糕,一边大声说:“哦,你这种人不适合当医生,你只配当护士。”
    • 贬低(Demeaning):比如 AI 把黑人画成大猩猩,或者把某些族裔总是画成罪犯。这就像服务员在给你蛋糕时,还往你脸上抹灰,让你看起来低人一等。
    • 抹除(Erasing):比如人脸识别系统认不出黑人的脸,或者搜“同性恋婚礼”只出异性恋婚礼。这就像服务员直接把你当成空气,仿佛你根本不存在。
    • 固化(Reifying):比如机场安检系统只认“男”和“女”,非二元性别的人怎么都过不了安检。这就像服务员强行把你塞进一个不合适的盒子里,告诉你:“你只能是这样,不能是那样。”

核心观点:这些伤害之所以可怕,不是因为大家分到的蛋糕少了,而是因为AI 在告诉社会:有些人是“高等”的,有些人是“低等”的。 它把社会分成了“主人”和“奴隶”,这违背了“人人生而平等”的道德底线。

3. 新方案:不仅要分蛋糕,还要平视彼此(关系公平)

为了解决这个问题,作者提出了一个**“双管齐下”**的新框架,结合了两种公平观:

  • 左手:分配公平(DE)
    • 任务:确保蛋糕分得匀。
    • 作用:解决“没机会”、“没钱”的问题。
  • 右手:关系公平(Relational Equality, RE)
    • 任务:确保大家平视彼此,没有谁比谁高贵。
    • 作用:解决“被歧视”、“被羞辱”、“被无视”的问题。
    • 比喻:这不仅仅是分蛋糕,而是要确保服务员在端盘子时,眼神是尊重的态度是平等的。不能一边给你蛋糕,一边把你当小丑看。

4. 为什么现在的“技术修补”不够用?

作者批评了目前很多试图修复 AI 的技术手段,它们往往只是**“换汤不换药”**:

  • 简单的“平均化”:比如为了让 AI 画出的“医生”男女各半,就强行把一半的男性医生改成女性。这就像为了分蛋糕均匀,强行把蛋糕切得一样大,但没解决服务员心里觉得“女性不适合当医生”的偏见。
  • 简单的“删除”:比如把 AI 输出的所有负面词汇都删掉。但这就像把“罪犯”这个词删了,AI 却可能用更隐晦的方式继续歧视。
  • 简单的“增加”:比如强行让 AI 多画一些少数族裔。但如果背景还是充满刻板印象(比如把黑人画成超级英雄但背景是贫民窟),这反而可能强化偏见。

比喻:这就像给一个有种族歧视的餐厅换了一个更漂亮的菜单(技术修复),但服务员(社会结构)的脑子里还是觉得某些客人低人一等。如果不改变服务员的心态和餐厅的规矩,光改菜单没用。

5. 我们该怎么做?(从“修机器”到“改生态”)

作者认为,要真正解决问题,不能只盯着代码(技术),要盯着整个流程

  1. 大家一起做饭(参与式数据收集)

    • 不要只让大公司在办公室里决定数据怎么来。要让被歧视的群体(比如少数族裔、LGBTQ 群体)亲自参与数据的收集和标注。
    • 比喻:以前是“我替你做主”,现在是“你自己来切菜、摆盘”。
  2. 大家都要懂行(批判性思维教育)

    • 不仅要教开发者,也要教用户。让大家知道 AI 也是有偏见的,学会识别和质疑 AI 输出的内容。
    • 比喻:教会顾客识别服务员在搞鬼,而不是盲目相信服务员端上来的东西。
  3. 把“裂缝”露出来(透明化设计)

    • 不要假装 AI 是完美的、客观的。要在界面上告诉用户:“这个结果可能是有偏见的,因为数据里包含了这些历史偏见。”
    • 比喻:服务员端菜时,主动说:“这道菜是根据老菜谱做的,可能有点咸,您尝尝看。”而不是假装它是完美的。
  4. 这是个长跑(迭代与社会变革)

    • 公平不是一次性修好就能解决的。需要不断收集反馈,并且要意识到,AI 的问题本质上是社会的问题。如果社会本身就不平等,AI 很难独自变得公平。

总结

这篇文章告诉我们:
真正的 AI 公平,不仅仅是把资源(蛋糕)分得一样多,更是要确保每个人在 AI 面前都能挺直腰杆,被当作一个有尊严的“人”来对待。

我们需要一种**“双核驱动”的公平观:一手抓“分蛋糕”(分配公平),一手抓“平视彼此”**(关系公平)。只有这样,我们才能构建一个既没有资源匮乏,也没有尊严缺失的 AI 世界。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →