Calibrating Behavioral Parameters with Large Language Models

本文提出了一种利用大语言模型(LLM)作为校准测量工具的新框架,通过对模型行为进行画像校准,使其能够模拟出与人类基准一致且符合资产定价经验规律的多种行为金融学参数。

原作者: Brandon Yee, Krishna Sharma

发布于 2026-04-27
📖 1 分钟阅读☕ 轻松阅读

这是对下方论文的AI生成解释。它不是由作者撰写或认可的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

🌟 核心概念:把 AI 当成“心理测量仪”

想象一下,如果你想研究人类为什么在股市里会“追涨杀跌”或者“亏损了死扛”,传统的办法有两种:

  1. 找真人做实验: 费钱、费时,而且真人会撒谎、会疲劳,甚至因为真的亏了钱而情绪失控,导致实验结果不准。
  2. 写数学公式: 这种方法太死板,很难捕捉到人类那种“不理性”的微妙感觉。

这篇论文提出了第三种天才的想法: 既然 AI(比如 GPT-4)读过人类所有的书、文章和案例,它其实已经“掌握”了人类各种不理性的套路。我们能不能不把 AI 当成一个“聪明的助手”,而是把它当成一个**“可以随意调节参数的心理模拟器”**?


🎭 创意比喻:调音师与钢琴

我们可以把这个研究过程比喻成**“调音师在调钢琴”**:

1. 默认状态:一台“过于理性”的钢琴 🎹

研究人员发现,如果你直接问 AI:“你会怎么投资?”AI 的回答通常非常冷静、理性,像是一个完美的数学家。这就像是一台默认音准极高、完全没有杂音的钢琴
但在现实世界中,人类的“钢琴”是有杂音的——我们会恐惧、会贪婪、会盲从。如果 AI 太理性,它就没法模拟真实的金融市场。

2. 调音过程:给 AI 戴上“性格面具” (Calibration) 🎭

为了让 AI 变得“像人”,研究人员给它戴上了不同的**“性格面具”**(也就是论文里的 Profile-based calibration):

  • “损失厌恶”面具: 告诉 AI:“你是一个特别怕亏钱的人,亏 100 块带来的痛苦比赚 100 块的快乐大得多。”
  • “羊群效应”面具: 告诉 AI:“你是一个特别爱凑热闹的人,大家都买什么你就买什么。”
  • “过度外推”面具: 告诉 AI:“你是一个特别迷信趋势的人,觉得只要昨天涨了,明天肯定还会涨。”

神奇的事情发生了: 当 AI 戴上这些面具后,它的行为真的发生了剧变!它不再是那个冷静的数学家,而是变成了一个会追涨杀跌、会盲目跟风的“股民”。

3. 验证结果:模拟一场“虚拟股市大战” 📈

调好音的“钢琴”好不好用?研究人员把这些戴着面具的 AI 丢进一个虚拟的股市模型里,看它们能不能演出一场真实的“金融大戏”。

  • 结果证明: 当 AI 戴上“过度外推”的面具后,它们在模拟市场里竟然真的制造出了现实中常见的**“动量效应”**(即价格持续上涨或下跌的现象)。这说明,AI 模拟出来的这些“不理性”,不仅看起来像人,而且在经济逻辑上也是成立的!

🔍 研究的结论(划重点)

  1. AI 有“理性偏见”: 默认情况下,AI 比人类理智得多。它们太“正经”了,缺乏人类那种由于情绪带来的“小毛病”。
  2. AI 是极好的“实验工具”: 通过给 AI 下达特定的指令(戴面具),我们可以精准地控制它的“偏见程度”。这比找真人做实验要高效、稳定得多。
  3. 不是所有偏见都能模拟:
    • 能模拟的(认知类): 比如“觉得趋势会持续”、“觉得大家都在买”,这些靠逻辑和模式识别就能模拟。
    • 难模拟的(情感类): 比如“亏钱时的心痛感”、“因为面子问题不敢卖股票”。AI 没有肉体,它没有真正的“痛感”和“羞耻感”,所以模拟这类偏见效果较差。

💡 总结一下

这篇论文告诉我们:我们不需要真的去折磨人类受试者,就可以通过“调教”AI,创造出一个充满各种心理偏见的“数字人类社会”。

这就像是为经济学家提供了一套**“上帝视角”的模拟器**——你可以随意拨动“贪婪”或“恐惧”的旋钮,观察这个虚拟世界会如何崩塌或繁荣,从而更好地理解现实世界的金融危机。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →