Each language version is independently generated for its own context, not a direct translation.
这篇文章探讨了一个核心问题:为什么人工智能(AI)中的“不公平”是错的?我们到底应该追求什么样的公平?
作者认为,目前大多数关于"AI 公平”的研究,就像是在玩一个**“分蛋糕”**的游戏。他们只关心蛋糕(机会、资源、工作)是不是分得一样多。但作者指出,这种想法太片面了,特别是对于现在的生成式 AI(比如能画图、写故事的模型)。
为了让你更容易理解,我们可以把 AI 系统想象成**“一个巨大的、不知疲倦的餐厅服务员”**。
1. 旧观念:只关心“分蛋糕”(分配公平)
目前的公平研究主要关注分配公平(Distributive Equality)。
- 比喻:想象餐厅里有一堆蛋糕(工作机会、贷款、广告位)。如果服务员把蛋糕分给白人时多,分给黑人时少,大家就会说:“这不公平!蛋糕没分匀!”
- 做法:为了公平,我们调整算法,确保每个人得到的蛋糕数量一样多,或者确保每个人拿到蛋糕的“概率”一样。
- 局限:这就像只关心**“谁吃到了多少”**。但如果服务员在分蛋糕的同时,还对着某些客人做鬼脸、贴标签,甚至把某些客人当成隐形人呢?光分匀蛋糕,解决不了这个问题。
2. 新发现:除了蛋糕,还有“眼神”和“标签”(代表性伤害)
作者指出,AI 造成的伤害有两种:
- 分配性伤害(Allocative Harm):就是上面说的,没分到蛋糕(比如被拒绝贷款、看不到招聘广告)。
- 代表性伤害(Representational Harm):这是旧理论忽略的。它是指 AI 在**“怎么描述你”**。
- 刻板印象(Stereotyping):比如 AI 画“医生”全是男的,画“护士”全是女的。这就像服务员一边给你蛋糕,一边大声说:“哦,你这种人不适合当医生,你只配当护士。”
- 贬低(Demeaning):比如 AI 把黑人画成大猩猩,或者把某些族裔总是画成罪犯。这就像服务员在给你蛋糕时,还往你脸上抹灰,让你看起来低人一等。
- 抹除(Erasing):比如人脸识别系统认不出黑人的脸,或者搜“同性恋婚礼”只出异性恋婚礼。这就像服务员直接把你当成空气,仿佛你根本不存在。
- 固化(Reifying):比如机场安检系统只认“男”和“女”,非二元性别的人怎么都过不了安检。这就像服务员强行把你塞进一个不合适的盒子里,告诉你:“你只能是这样,不能是那样。”
核心观点:这些伤害之所以可怕,不是因为大家分到的蛋糕少了,而是因为AI 在告诉社会:有些人是“高等”的,有些人是“低等”的。 它把社会分成了“主人”和“奴隶”,这违背了“人人生而平等”的道德底线。
3. 新方案:不仅要分蛋糕,还要平视彼此(关系公平)
为了解决这个问题,作者提出了一个**“双管齐下”**的新框架,结合了两种公平观:
- 左手:分配公平(DE)
- 任务:确保蛋糕分得匀。
- 作用:解决“没机会”、“没钱”的问题。
- 右手:关系公平(Relational Equality, RE)
- 任务:确保大家平视彼此,没有谁比谁高贵。
- 作用:解决“被歧视”、“被羞辱”、“被无视”的问题。
- 比喻:这不仅仅是分蛋糕,而是要确保服务员在端盘子时,眼神是尊重的,态度是平等的。不能一边给你蛋糕,一边把你当小丑看。
4. 为什么现在的“技术修补”不够用?
作者批评了目前很多试图修复 AI 的技术手段,它们往往只是**“换汤不换药”**:
- 简单的“平均化”:比如为了让 AI 画出的“医生”男女各半,就强行把一半的男性医生改成女性。这就像为了分蛋糕均匀,强行把蛋糕切得一样大,但没解决服务员心里觉得“女性不适合当医生”的偏见。
- 简单的“删除”:比如把 AI 输出的所有负面词汇都删掉。但这就像把“罪犯”这个词删了,AI 却可能用更隐晦的方式继续歧视。
- 简单的“增加”:比如强行让 AI 多画一些少数族裔。但如果背景还是充满刻板印象(比如把黑人画成超级英雄但背景是贫民窟),这反而可能强化偏见。
比喻:这就像给一个有种族歧视的餐厅换了一个更漂亮的菜单(技术修复),但服务员(社会结构)的脑子里还是觉得某些客人低人一等。如果不改变服务员的心态和餐厅的规矩,光改菜单没用。
5. 我们该怎么做?(从“修机器”到“改生态”)
作者认为,要真正解决问题,不能只盯着代码(技术),要盯着整个流程:
大家一起做饭(参与式数据收集):
- 不要只让大公司在办公室里决定数据怎么来。要让被歧视的群体(比如少数族裔、LGBTQ 群体)亲自参与数据的收集和标注。
- 比喻:以前是“我替你做主”,现在是“你自己来切菜、摆盘”。
大家都要懂行(批判性思维教育):
- 不仅要教开发者,也要教用户。让大家知道 AI 也是有偏见的,学会识别和质疑 AI 输出的内容。
- 比喻:教会顾客识别服务员在搞鬼,而不是盲目相信服务员端上来的东西。
把“裂缝”露出来(透明化设计):
- 不要假装 AI 是完美的、客观的。要在界面上告诉用户:“这个结果可能是有偏见的,因为数据里包含了这些历史偏见。”
- 比喻:服务员端菜时,主动说:“这道菜是根据老菜谱做的,可能有点咸,您尝尝看。”而不是假装它是完美的。
这是个长跑(迭代与社会变革):
- 公平不是一次性修好就能解决的。需要不断收集反馈,并且要意识到,AI 的问题本质上是社会的问题。如果社会本身就不平等,AI 很难独自变得公平。
总结
这篇文章告诉我们:
真正的 AI 公平,不仅仅是把资源(蛋糕)分得一样多,更是要确保每个人在 AI 面前都能挺直腰杆,被当作一个有尊严的“人”来对待。
我们需要一种**“双核驱动”的公平观:一手抓“分蛋糕”(分配公平),一手抓“平视彼此”**(关系公平)。只有这样,我们才能构建一个既没有资源匮乏,也没有尊严缺失的 AI 世界。
在收件箱中获取类似论文
根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。