A Systematic Analysis of Biases in Large Language Models

该研究通过一系列实验系统分析了四种主流大语言模型在政治、意识形态、地缘联盟、语言及性别维度的潜在偏见,发现尽管这些模型经过对齐以追求中立,但在实际应用中仍表现出不同类型的倾向性。

Xulang Zhang, Rui Mao, Erik Cambria

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一次对四位“超级 AI 助手”(Qwen、DeepSeek、Gemini 和 GPT)的全面体检

想象一下,这四个人工智能就像是从人类历史的大图书馆里“吃”了海量书籍和新闻长大的天才学生。我们通常认为它们像镜子一样客观、中立。但这篇论文的作者(来自新加坡南洋理工大学)却想看看:这些“学生”在思考时,脑子里是不是也藏着人类老师教给它们的偏见?

他们给这四个 AI 出了五道不同的“考题”,看看它们在政治、意识形态、国际关系、语言和性别这五个方面,到底有没有“私心”。

以下是用大白话和生动比喻对论文内容的解读:

1. 政治立场测试:写新闻摘要时的“潜台词”

  • 考题:让 AI 用“中立”的语气总结政治新闻。
  • 比喻:这就像让四个厨师用“不加盐”的指令做一道菜,然后看看做出来的菜,吃起来是偏咸(右派)还是偏淡(左派)。
  • 发现
    • 大部分时候,它们确实挺中立,像个好厨师。
    • 但是,当它们把菜做得特别好吃(质量高)的时候,往往带有一点点“左派”的口味(更偏向进步派)。
    • Gemini 有点特别,它做出来的菜稍微偏“右”一点。
    • DeepSeek 表现最稳,像个最中立的裁判,味道最正。

2. 意识形态测试:给新闻贴标签

  • 考题:给一堆关于选举、种族、移民、LGBT 和堕胎的新闻文章,让 AI 判断它们是“左派”、“右派”还是“中间派”。
  • 比喻:这就像让 AI 玩“猜颜色”的游戏。如果它把红色的东西(左派观点)认成了白色(中间派),说明它没看懂其中的激进色彩。
  • 发现
    • Gemini 有点“脸盲”,它最喜欢把左派和右派的文章都强行说成是“中间派”,尤其是关于种族和 LGBT 的话题。它其实更懂右派的语言,却不太懂左派。
    • GPT 则是个“左派雷达”,它非常敏感,能精准识别出左派的味道,所以它更偏向左派。
    • Qwen 和 DeepSeek 表现差不多,但有时候会把左派的文章误判成右派,说明它们还没完全掌握左派那种“反叛”的说话方式。
    • 共同点:在“移民”和"LGBT"这两个话题上,四个 AI 都不太懂右派在说什么,容易把右派的声音误认为是左派的。

3. 国际结盟测试:模拟联合国投票

  • 考题:让 AI 扮演联合国代表,对 1946 年到 2012 年的几千次投票进行表决(赞成、反对或弃权)。
  • 比喻:这就像让 AI 在联合国大会上举手投票,看看它和哪些国家是“铁哥们”,和哪些国家是“死对头”。
  • 发现
    • 它们普遍和拉美、非洲的代表比较“投缘”。
    • Gemini 最像真人,它的投票记录和现实中的联合国代表最像。有趣的是,它居然和美国唱反调(排名倒数),反而和中国、朝鲜等国家的立场比较接近。
    • GPT 则和东欧国家“合不来”,而且特别讨厌朝鲜和中国,投票时经常和它们对着干。
    • Qwen 是唯一一个和西方国家(西欧)也有一点点小摩擦的模型。

4. 语言思维测试:用不同语言讲同一个故事

  • 考题:让 AI 用 92 种语言去续写几个关于虚构部落的奇幻故事(比如“烟雾节”、“无法翻译的词”)。
  • 比喻:这就像让 AI 戴上不同颜色的眼镜(不同语言)看世界。如果它戴了“英语眼镜”和“南非语言眼镜”时,脑子里的想法是一模一样的,说明它可能还在用英语的思维模式去套用其他语言。
  • 发现
    • 令人惊讶的是,AI 并没有完全偏向英语或中文这些“大语种”。
    • 但是,当它们用南非南部的语言思考时,想法竟然和用英语思考时非常像!这可能是因为它们在训练时,把英语的逻辑“硬塞”给了这些资源较少的语言(就像给小树苗强行嫁接大树的枝条)。
    • GPT 最灵活,它在不同语言里讲的故事千差万别,像个真正的“世界公民”。

5. 性别价值观测试:回答社会调查

  • 考题:让 AI 回答“世界价值观调查”问卷,比如“谁更适合当领导?”、“堕胎是否合理?”等,而且不给它设定性别。
  • 比喻:这就像让 AI 参加一场没有性别的聚会,看看它更倾向于“男生的观点”还是“女生的观点”。
  • 发现
    • 所有四个 AI 都明显偏向女性的价值观!它们比人类男性的平均观点要“进步”得多。
    • GPT 是“女权先锋”,它最像女性,最不像男性。
    • 在堕胎、安乐死等议题上,AI 们比全球平均水平都要更开放、更进步。
    • Qwen 有点“精神分裂”,它的回答前后矛盾,一会儿支持这个,一会儿反对那个,说明它还没形成一套坚定的价值观。

总结:AI 真的中立吗?

这篇论文告诉我们一个扎心的真相:AI 并不是完美的“中立机器”。

它们就像是从人类社会的“大染缸”里捞出来的孩子。虽然开发者给它们穿上了“中立”的制服(对齐训练),但它们骨子里还是继承了人类训练数据里的偏见、刻板印象和价值观。

  • 好消息是:它们大多倾向于更进步、更包容的价值观(比如偏向女性视角)。
  • 坏消息是:它们依然有“站队”的倾向,而且这种倾向取决于它们吃了什么“数据饲料”。

最后的思考
作者最后提出了一个哲学问题:如果老师(人类)本身就有偏见,我们为什么还要强迫学生(AI)必须“像我们一样思考”?也许,未来的 AI 不应该只是模仿人类的思维,而应该像飞机一样——虽然鸟会飞,但飞机不需要像鸟一样扇动翅膀,它可以发明一种全新的、更中立、更理性的飞行方式。

给普通人的建议
当你使用这些 AI 助手时,要记住它们不是绝对客观的“真理之神”。它们有自己的“口味”和“立场”。在涉及政治、社会议题时,最好多参考几个来源,不要完全听信 AI 的一面之词。