Belief-Sim: Towards Belief-Driven Simulation of Demographic Misinformation Susceptibility

本文提出了名为 BeliefSim 的模拟框架,利用心理学启发的分类法和调查先验构建人口统计信念画像,通过提示工程和后训练微调成功模拟了不同群体对虚假信息的易感性,并在多项评估中实现了高达 92% 的准确率。

Angana Borah, Zohaib Khan, Rada Mihalcea, Verónica Pérez-Rosas

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于**“如何教 AI 像不同人群一样思考”**的故事,特别是关于他们为什么容易相信假新闻。

想象一下,如果你想知道为什么**“住在农村的老年人”“住在城市的年轻人”**对同一条假新闻的反应截然不同,你会怎么做?

以前的方法就像给 AI 贴标签:告诉它“你是一个 60 岁的农村老人”,然后让它猜。但这往往不够准,因为 AI 可能会产生刻板印象(比如觉得所有老人都糊涂),而不是真正理解他们为什么这么想。

这篇论文提出了一个叫 Belief-Sim(信念模拟) 的新方法。它的核心理念是:决定一个人是否相信假新闻的,不是他的“身份证”(年龄、性别、学历),而是他脑子里的“信念地图”。

下面我用几个生动的比喻来拆解这篇论文:

1. 核心问题:为什么“贴标签”不管用?

想象你在玩一个角色扮演游戏。

  • 旧方法(Demographic-only): 你只告诉 AI:“你现在是一个60 岁的男性。”AI 可能会想:“哦,60 岁男性通常比较保守,所以我猜他会信这个假新闻。”但这只是刻板印象,就像看到穿西装的人就以为他很有钱一样,不一定准。
  • 新方法(Belief-Sim): 你不仅告诉 AI 他是谁,还给了他一本**“内心日记”。这本日记里写着:“这个人信任科学**,但他对政府很怀疑,而且他喜欢用直觉而不是逻辑思考。”
    • 比喻: 旧方法是只给 AI 看一个人的照片(外貌);新方法是给 AI 看这个人的大脑地图(信念)。有了地图,AI 就能更精准地模拟出这个人面对假新闻时的真实反应。

2. 他们是怎么做的?(两大步骤)

研究人员构建了一个名为 Belief-Sim 的框架,主要做了两件事:

第一步:绘制“信念地图” (The Belief Taxonomy)

他们把人类复杂的想法归纳成了7 个核心维度,就像给大脑装了 7 个不同的“滤镜”:

  1. 世界观与身份(我是谁?我属于哪个群体?)
  2. 知识信任(我信科学家还是信直觉?)
  3. 思维风格(我是爱动脑筋,还是凭感觉?)
  4. 阴谋论倾向(我总觉得背后有黑手吗?)
  5. 道德价值观(我觉得什么是对的?)
  6. 情绪反应(我容易焦虑或愤怒吗?)
  7. 思维捷径(我是不是容易轻信重复听到的话?)

他们利用全球价值观调查(WVS)的数据,把这些“滤镜”填进了不同人群(如不同年龄、性别、居住地)的档案里。

第二步:两种“训练”方法

为了让 AI 学会这些,他们试了两种方法:

  • 方法 A:提示词魔法 (Prompt-based)

    • 比喻: 就像给 AI 写一封**“人设信”。在提问前,先告诉 AI:“请扮演一个相信科学但怀疑政府城市年轻人**,基于这个背景,你觉得这条新闻是真的吗?”
    • 结果: 效果不错,准确率最高能达到 92%。但这就像让演员背台词,有时候如果“人设”和“新闻”冲突,AI 还是会乱。
  • 方法 B:深度微调 (BAFT - 信念适配器)

    • 比喻: 这不仅仅是给 AI 读人设,而是给 AI 的大脑装了一个**“信念插件”**。
      • 第一阶段: 先让 AI 专门学习“不同人群通常有什么信念”(比如:老年人通常更信任传统媒体)。
      • 第二阶段: 冻结这个插件,只训练 AI 学习“如何根据这些信念去判断新闻真假”。
    • 优势: 这种方法就像把“信念”和“判断能力”分开了。即使面对没见过的新闻,AI 也能利用学到的“信念插件”做出更准确的判断,而且不容易产生刻板印象

3. 他们发现了什么?(关键结论)

  • 信念 > 身份: 在预测谁容易信假新闻时,“他相信什么”比“他是谁”重要得多。如果你知道一个人的信念(比如他是否容易焦虑),你甚至不需要知道他的年龄,就能猜得很准。
  • 刻板印象是陷阱: 如果只告诉 AI 年龄或性别,AI 很容易走捷径,产生偏见(比如认为所有年轻人都轻信网络谣言)。但一旦加入了“信念”信息,AI 就变得更聪明、更客观。
  • 不同话题,不同反应: 对于简单的新闻,大家的反应差不多;但对于科学、健康或政府政策这类复杂话题,不同信念的人反应差异巨大。
  • 最好的模型: 他们测试了几个开源大模型,发现 Qwen(通义千问)Mistral 在理解这些信念方面表现最好,而 Llama 则更容易受刻板印象影响。

4. 这对我们意味着什么?

这篇论文就像给未来的**“反假新闻武器”**提供了一张新蓝图。

以前,我们可能试图通过告诉人们“你是老年人,所以别信这个”来辟谣,但这往往无效。
现在,我们可以利用 Belief-Sim 来模拟:

  • “如果我想让一个相信阴谋论的人相信真相,我该怎么说话?”
  • “如果我想让一个焦虑的年轻人停止转发假新闻,我该怎么设计干预措施?”

总结来说:
这篇论文告诉我们,要理解人类为什么会上当受骗,不能只看他们的外表(人口统计特征),而要深入他们的内心(信念体系)。通过让 AI 学会这些“内心戏”,我们不仅能更好地模拟人类行为,还能设计出更精准、更有效的策略来对抗假新闻。

这就好比,以前我们试图通过**“给每个人发不同的帽子”来管理人群;现在,我们学会了“给每个人定制不同的心理地图”**,从而真正理解并引导他们。