On the Concept of Violence: A Comparative Study of Human and AI Judgments

该研究通过系统比较人类判断与大型语言模型在 22 个道德争议场景中对“暴力”概念的判定,揭示了 AI 如何将多元的人类解释转化为单一输出,进而探讨了生成式人工智能在塑造日常道德认知与社会规范中的认识论角色。

原作者: Mariachiara Stellato, Francesco Lancia, Chiara Galeazzi, Nico Curti

发布于 2026-02-20
📖 1 分钟阅读☕ 轻松阅读

这是对下方论文的AI生成解释。它不是由作者撰写或认可的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

当人类遇到 AI:谁来判断什么是“暴力”?

—— 一篇关于人类直觉与人工智能判断的趣味研究报告

想象一下,你正在和一个老朋友争论:在公交车上盯着陌生人看,算不算一种“暴力”?或者,在网上骂人,和真的动手打人,性质一样吗?

人类对这类问题的答案往往五花八门,因为每个人的成长背景、价值观不同。但如果你问现在的人工智能(AI),它会怎么回答呢?它会像人类一样纠结,还是像一台冷冰冰的机器给出一个“标准答案”?

这篇论文就是由一群意大利科学家(来自博洛尼亚大学和电台)做的一个大胆实验:他们把 22 个充满争议的场景,同时拿给 3000 多名人类听众和 18 种不同的 AI 模型去判断,看看谁更“懂”暴力。


🎙️ 实验是怎么做的?

1. 人类的“投票箱”:
研究人员在一个意大利热门电台节目里,向听众抛出了 22 个“道德难题”。比如:

  • “抗议者把警察打伤了。”(这肯定是暴力吧?)
  • “有人在公交车上一直盯着陌生人看。”(这算暴力吗?)
  • “有人在电视上说要消灭某类人,但主持人及时打断了他。”(这算暴力吗?)

听众只能选三个答案:是暴力不是暴力看情况(取决于语境)

2. AI 的“答题卷”:
同样的 22 个问题,被扔给了 18 种不同的 AI 模型(就像让 18 个不同性格、不同学历的“机器人学生”来答题)。这些模型有的很大(像博士),有的很小(像小学生),有的专门写代码,有的专门聊天。

3. 核心规则:
AI 被要求不许解释,必须直接给出一个分类,就像做选择题一样。


🔍 发现了什么有趣的现象?

如果把人类和 AI 的答案放在一起对比,就像发现了一个**“平行宇宙”**:

1. 人类喜欢“看情况”,AI 喜欢“下结论”

  • 人类: 面对模糊的情况(比如“看情况”),人类很犹豫。我们会想:“这得看当时气氛吧?”“是不是开玩笑?”所以人类的答案里,“看情况”占了很大比例。
  • AI: AI 讨厌模糊。它觉得“看情况”太麻烦了,于是它把很多模棱两可的答案强行归类为“不是暴力”或者“是暴力”。
    • 比喻: 就像人类在法庭上会说“这得看证据”,而 AI 像个急于结案的法警,直接敲下法槌说“有罪”或“无罪”。

2. 网络骂人:人类觉得是“重罪”,AI 觉得是“小打小闹”

  • 人类反应: 当看到“在网上公开辱骂他人”或“组织一群人网暴”时,90% 以上的人类认为这是暴力。大家觉得言语伤害也是伤害。
  • AI 反应: 只有50% 左右的 AI 认为这是暴力。
    • 比喻: 对人类来说,言语像一把刀,能伤人;但对 AI 来说,除非你动了手(物理伤害),否则它觉得这只是“说错话”,不算真正的暴力。AI 似乎更看重“拳头”,而忽略了“语言”的力量。

3. 被打断的“坏念头”:AI 比人类更严厉

  • 场景: 有人在电视上说要“消灭某类人”,但主持人及时打断了他,没让他说完。
  • 人类反应: 很多人觉得“既然被打断了,没造成后果,就不算暴力”(约 27% 认为是暴力)。
  • AI 反应: 81% 的 AI 认为这就是暴力。
    • 比喻: 人类看重“结果”(没打伤人,所以没事);AI 看重“意图”(你心里想杀人,这就是暴力,不管有没有打断)。AI 像个死板的安检员,只要包里藏着炸弹(哪怕没引爆),就判定为危险品。

4. 机器人之间也不团结

有趣的是,这 18 个 AI 模型自己也没达成一致。

  • 有些大模型(像“学霸”)能猜对人类的想法。
  • 有些小模型(像“小学生”)完全乱猜。
  • 甚至在同一个问题上,不同的 AI 也会吵架。这说明 AI 并没有一个统一的“道德标准”,它们只是根据自己读过的书(训练数据)在模仿。

💡 这告诉我们什么大道理?

这篇论文其实是在敲警钟,提醒我们注意 AI 在生活中的角色:

  1. AI 不是“道德法官”:
    当我们问 AI“这是不是暴力”时,AI 给出的答案往往过于简单。它把复杂的人类情感和社会背景,压缩成了非黑即白的标签。

    • 比喻: 人类的世界是水彩画,有灰色地带,有模糊的过渡;而 AI 的世界是像素画,只有黑和白,没有中间色。
  2. 不要盲目相信 AI 的“自信”:
    AI 说话通常很自信、很流畅,让人误以为它很有智慧。但实际上,它可能只是在做“概率游戏”。如果你把它当成道德权威,可能会误判很多事。

    • 比喻: 就像你问一个只会背书的机器人“什么是爱”,它可能背出了字典定义,但它永远不懂心碎的感觉。
  3. 我们需要保留“人类视角”:
    在涉及道德、法律和人际关系的复杂问题上,人类的主观判断、同理心和对语境的感知是 AI 目前无法替代的。AI 可以帮我们整理信息,但不能替我们做最终的价值判断。

🎯 总结

这篇研究就像一面镜子,照出了人类和 AI 在理解世界时的巨大差异。

  • 人类是灵活的、感性的,懂得“看情况”。
  • AI是僵硬的、逻辑的,喜欢“一刀切”。

结论很简单: 当你在生活中遇到道德难题,想问问 AI 时,请把它当成一个参考工具,而不是最终裁判。毕竟,理解“暴力”不仅仅是分类,更是对人性的深刻洞察,而这,目前还是人类独有的特权。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →