Community-Informed AI Models for Police Accountability

本文提出了一种由社区参与的多视角人工智能开发方法,旨在通过分析洛杉矶警察局执法记录仪视频来增强政府问责制,并强调了社会科学家在将多元利益相关者视角融入警务问责 AI 工具研发中的关键作用。

Benjamin A. T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian, Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayagüez Salinas, Michael Sierra-Arévalo, Jackson Trager, Nicholas Weller, Shrikanth Narayanan

发布于 Fri, 13 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章就像是在讲一个关于"如何给警察执法录像装上‘多视角眼镜’,让 AI 真正听懂老百姓心里话"的故事。

想象一下,警察身上都戴着执法记录仪(Body-Worn Cameras),就像给每一次交通拦停都装上了“黑匣子”。以前,这些录像堆积如山,没人看得过来,就像图书馆里堆满了没人读的书。现在,有了人工智能(AI),我们可以像用超级快读机一样,瞬间看完成千上万段录像,看看警察到底做得好不好。

但是,这里有个大麻烦:谁来决定警察做得“好不好”

1. 核心问题:只有一种“标准答案”行不通吗?

这就好比给一道菜打分

  • 如果只让厨师(警察)来打分,他们可能会觉得:“我动作快、效率高,这菜做得好!”
  • 如果只让挑剔的食客(普通市民)来打分,他们可能会觉得:“你态度太凶了,这菜虽然熟,但我不爱吃!”

以前的 AI 模型,往往只有一种“标准答案”(Ground Truth),就像只请了一位“裁判”来定夺。如果这位裁判是警察,或者只受过专业训练的人,那么 AI 学到的就是“警察眼中的正义”。但这在民主社会里是不够的,因为警察是受老百姓委托来服务的。如果 AI 只懂警察的逻辑,不懂老百姓的恐惧和期待,那它就不是在帮老百姓,而是在帮警察“自说自话”。

2. 这个团队做了什么?(“ Everyday Respect"项目)

南加州大学的一群科学家(包括政治学家、社会学家和计算机专家)联手,在洛杉矶做了一项实验。他们不想只找一个“标准答案”,而是想收集“众声喧哗”

他们把整个过程分成了几步,我们可以用**“制作一部超级纪录片”**来比喻:

第一步:先问大家想要什么(社区调研)

在开拍前,他们先开了很多场**“茶话会”(访谈和焦点小组)和“问卷调查”**。

  • 问警察:你们觉得什么情况下会感到危险?什么行为会让司机紧张?
  • 问老百姓:你们希望警察怎么说话?什么行为让你们觉得被尊重?

发现了一个有趣的现象
大家都想要“尊重”。

  • 白人司机觉得:尊重就是“别骂人,态度好点”,这样我心情好,少开点罚单。
  • 黑人或拉丁裔司机觉得:尊重是**“保命符”**。他们担心,如果警察态度不好,可能会升级成暴力,甚至危及生命。
  • 结论:同样的词(尊重),不同人心里想的东西完全不同。AI 必须能听懂这种**“同词不同义”**的微妙差别。

第二步:招募“多元评审团”(数据标注)

这是最关键的一步。通常,给视频打标签(比如“这个警察有没有骂人”)的工作,是外包给一群背景相似的人做的。
但这个团队特意招募了背景天差地别的“评审员”:

  • 前警察(懂行规,知道什么动作是战术需要)。
  • 有过被捕经历的人(懂那种被警察对待时的恐惧和敏感)。
  • 普通社区居民(代表大众视角)。

他们让这些人一起看录像,然后打分。

  • 以前:如果三个人打分不一样,系统会认为这是“噪音”,取个平均分,把差异抹平。
  • 现在:他们发现,差异本身就是答案
    • 前警察觉得:“这个动作是合理的战术威慑。”
    • 前被捕者觉得:“这个动作充满了威胁,让我很害怕。”
    • AI 的任务:不是消除这种分歧,而是学会同时理解这两种视角

第三步:训练“多面手 AI"

他们训练 AI 模型,让它不再寻找唯一的“真理”,而是学会**“多视角思考”
这就好比训练一个
“全能翻译官”**。当你输入一段警察和司机的对话,这个 AI 不仅能告诉你“发生了什么”,还能告诉你:

  • “在警察看来,这是合规的。”
  • “但在某些社区居民看来,这可能会引发恐惧。”
  • “在另一些人看来,这是缺乏尊重的表现。”

3. 为什么要这么做?(民主的账本)

这篇文章的核心观点是:AI 不应该只是警察的“效率工具”,更应该是民主的“监督工具”。

  • 如果不这么做:AI 可能会放大偏见。比如,它可能觉得“只要没打人就是好警察”,却忽略了“态度傲慢”对某些群体造成的心理伤害。
  • 如果这么做了:AI 就能成为一座桥梁。它能帮助警察部门看到自己没意识到的问题(比如某些话术让特定群体感到不安全),也能让老百姓看到执法的复杂性。

4. 遇到的困难(现实很骨感)

当然,这事儿不容易:

  • 太贵了:找这么多不同背景的人去认真看录像、打分,花了 60 多万美元,还得花大量时间。
  • 太难了:政府掌握着录像数据,如果政府不想让你看,或者不想让你按你的方式去分析,这事儿就推不动。
  • 太复杂了:需要政治学家、社会学家和程序员坐在一起吵架、磨合,这比单纯写代码难多了。

总结

这篇文章就像是在说:
“别只让 AI 学‘标准答案’,要让它学会‘理解人心’。”

在警察执法这个高风险领域,“尊重”不是只有一个定义。通过让不同背景的人(警察、前罪犯、普通市民)共同参与训练 AI,我们能让技术变得更民主、更公平。这不仅仅是为了抓坏人,更是为了让政府(警察)真正对人民负责,让每一次执法都经得起“多视角”的审视。

一句话概括
这就好比给 AI 戴上了一副**“变色眼镜”**,让它能同时看到警察眼中的“秩序”和市民眼中的“恐惧”,从而真正帮助政府变得更好、更透明。