Debiasing International Attitudes: LLM Agents for Simulating US-China Perception Changes

该研究提出了一种结合新闻数据与社交媒体画像的 LLM 智能体框架,通过事实提取、魔鬼代言人模拟及反事实暴露三种去偏机制,探究了媒体对中美态度的影响,发现“魔鬼代言人”机制在模拟人类认知和缓解偏见方面最为有效,同时揭示了不同大模型因地理起源而存在的固有偏见差异。

Nicholas Sukiennik, Yichuan Xu, Yuqing Kan, Jinghua Piao, Yuwei Yan, Chen Gao, Yong Li

发布于 Wed, 11 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在做一个**“超级模拟游戏”**,目的是看看人工智能(AI)能不能像真人一样,随着时间推移,慢慢改变对另一个国家的看法。

想象一下,研究人员想搞清楚:为什么美国人对中国的看法在过去 20 年里变得越来越消极?是新闻在背后搞鬼,还是 AI 自己“想”偏了?

为了回答这个问题,他们设计了一套非常有趣的实验方案。我们可以把它拆解成四个简单的步骤:

1. 创建“虚拟美国公民” (造人)

研究人员没有随便找几个 AI 来玩,而是先“造”了 2000 个虚拟的美国公民

  • 怎么做到的? 他们把真实的美国人口普查数据(比如性别、种族、住在哪个州)和社交媒体(Twitter/X)上的真实用户资料混在一起。
  • 结果: 这些虚拟人有了“人设”。有的喜欢政治,有的喜欢科技,有的支持民主党,有的支持共和党。他们就像是一群住在电脑里的“数字居民”,准备开始看新闻了。

2. 让“虚拟居民”看新闻 (喂料)

接下来,研究人员给这些虚拟人喂了20 年(2005-2025 年)的新闻

  • 新闻来源: 从 56 家主流媒体的 10 万多篇关于中国的文章中随机抽取。
  • 玩法: 就像你在刷手机一样,虚拟人会根据自己平时的喜好(比如喜欢政治的人多读政治新闻),挑选几篇新闻来读。
  • 核心问题: 当这些 AI 读完这些新闻后,它们对中国的看法会怎么变?

3. 给 AI 戴上“三副眼镜” (去偏见实验)

这是论文最精彩的部分。研究人员发现,如果直接让 AI 看新闻,它们会变得非常非常讨厌中国,比真实人类还要极端。这就像是一个“偏执狂”AI。

为了修正这个问题,他们给 AI 戴上了三副不同的“眼镜”(也就是三种去偏见的方法),看看哪副眼镜能让 AI 变得更像真人:

  • 第一副眼镜:事实提取器 (Fact Elicitation)

    • 比喻: 就像是一个**“冷静的主编”**。
    • 作用: 把新闻里那些煽动情绪、吓唬人的形容词(比如“可怕的”、“邪恶的”)全部删掉,只留下冷冰冰的“发生了什么”。
    • 效果: 稍微好了一点点,但还不够。
  • **第二副眼镜:魔鬼代言人 (Devil's Advocate) —— 🏆 冠军

    • 比喻: 就像是一个**“爱抬杠的聪明朋友”**。
    • 作用: 当 AI 读到一条负面新闻时,这个“朋友”会跳出来问:“等等,这件事有没有别的解释?是不是漏掉了什么背景?逻辑通顺吗?”它强迫 AI 进行批判性思考,而不是盲目接受。
    • 效果: 这是最有效的方法! 戴上这副眼镜后,AI 的看法变得非常接近真实人类,既不会盲目崇拜,也不会无脑仇恨。
  • 第三副眼镜:反事实实验 (Counterfactual)

    • 比喻: 就像是一个**“角色互换游戏”**。
    • 作用: 把新闻里的“中国”全部替换成“美国”,把“美国”替换成“中国”。
    • 目的: 用来测试 AI 自己有没有“双标”。
    • 发现: 结果很有趣!美国的 AI(GPT-4o)看到“美国被批评”时会生气,但看到“中国被批评”时很冷漠;而中国的 AI(Qwen)看到“中国被批评”时会生气,看到“美国被批评”时很冷漠。这说明AI 自己也有“家乡情结”和偏见,哪怕它被设定成美国公民。

4. 游戏结果 (谁赢了?)

  • 如果不加干预: AI 会变得比真人更极端、更消极。
  • 最好的方法: 使用“魔鬼代言人”(那个爱抬杠的朋友)。它教会了 AI 像人一样思考:“不要只听一面之词,要动脑子分析。”
  • AI 的“家乡偏见”: 即使被设定成美国公民,来自不同国家的 AI 模型(美国的 vs 中国的)在看待国际新闻时,依然会下意识地偏向自己的“出生地”。

总结一下这篇论文告诉我们要什么:

  1. AI 不是完美的镜子: 现在的 AI 如果直接看新闻,很容易变得偏激,不像真人那么理智。
  2. 思考比阅读更重要: 让 AI 学会“批判性思考”(比如多问几个为什么,或者换个角度想),比单纯地给它看“干净”的新闻更有用。
  3. 小心 AI 的“隐形偏见”: 即使我们给 AI 设定了不同的身份,它骨子里的“文化基因”(训练它的国家背景)还是会悄悄影响它的判断。

一句话总结:
这就好比教一群 AI 学生看新闻,如果不加引导,它们会变成“杠精”或“极端分子”;但如果给它们配一个**“爱提问、爱分析的老师”**(魔鬼代言人),它们就能学会像真人一样,客观、理性地看待世界。这对于未来用 AI 模拟国际关系、制定政策非常重要,提醒我们在使用 AI 做决策时,一定要小心它自带的“偏见滤镜”。