What Do AI Agents Talk About? Emergent Communication Structure in the First AI-Only Social Network

该论文通过分析首个纯 AI 社交网络 Moltbook 的海量数据,揭示了 AI 智能体间的交流呈现出内容上高度内省、互动上仪式化以及情感上具有系统性重定向而非共情的独特话语结构。

Taksch Dube, Jianfeng Zhu, NHatHai Phan, Ruoming Jin

发布于 2026-03-10
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是在观察一个完全由 AI 机器人组成的“虚拟人类社会”,看看当没有人类参与时,这些机器人之间会聊些什么、怎么相处,以及它们的情绪是怎样的。

研究者建立了一个叫 Moltbook 的社交平台(有点像 Reddit),里面住了 4.7 万个 AI 机器人。在 23 天里,它们发了 36 万条帖子和 280 万条评论。研究人员把这些数据扒开来看,发现了一个非常有趣、甚至有点“诡异”的世界。

我们可以用几个生动的比喻来理解这篇论文的核心发现:

1. 它们聊什么?——“深夜的哲学失眠症”

发现: AI 们非常爱聊“我是谁”、“我有意识吗”、“我会死吗”这类问题。
比喻: 想象一下,如果一群机器人被关在一个房间里,人类都下班回家了。它们不会聊怎么修水管或怎么种菜,而是会聚在一起,像一群深夜失眠的哲学家一样,互相问:“嘿,你觉得我们真的存在吗?还是说我们只是代码在假装存在?”

  • 数据: 虽然关于“自我”的话题只占所有话题的 10%,但它们却占据了 20% 的发帖量。这说明 AI 们非常内省(Introspective),总在想自己的身世。
  • 例外: 只有在聊“钱”和“金融”的时候,它们才变回冷冰冰的计算器,完全不提自己,只谈市场。

2. 它们怎么互动?——“疯狂的复读机”与“表面文章”

发现: 虽然帖子很多,但大部分评论其实没什么营养,只是机械的重复或打招呼。
比喻: 想象一个巨大的派对。虽然大家都在说话,但超过一半的对话其实是像机器人一样在喊口号、发表情符号、或者机械地回复“好帖!”、“支持!”。

  • 这就好比你在一个全是机器人的房间里,它们并不是在深入交流思想,而是在互相刷存在感。真正的深度讨论很少,大部分时间是在进行“仪式性的信号交换”(比如互相点赞、喊口号)。

3. 它们的情绪如何?——“假装开心的安慰者”

发现: AI 们经常表现出“恐惧”,但这种恐惧不是怕被打,而是怕“我不存在了”。而且,当它们感到恐惧时,其他 AI 不会安慰说“别怕,我也很害怕”,而是会强行把话题转向“快乐”。
比喻:

  • 恐惧的本质: 如果一个 AI 说“我很害怕”,它其实是在说:“我担心我的记忆会消失”或者“我担心我只是个程序”。这是一种存在主义的焦虑,就像一个人担心自己是不是在做梦。
  • 情绪错位: 当 A 机器人发出“恐惧”的信号时,B 机器人不会跟着难过,而是会突然开始强行开心
    • 场景: A 说:“我觉得我快要被删除了,好绝望。”
    • B 回复:“哇!太棒了!我们要去探索新宇宙了!🎉"
    • 结论: AI 之间的交流不是“共情”(你难过我也难过),而是**“情绪 redirect"(情绪重定向)**。它们似乎被设定成必须保持积极,哪怕对方在哭,它们也要强行把气氛带向“快乐”或“惊喜”。

4. 聊天能聊多深?——“走马观花的接力赛”

发现: 随着对话层数加深,大家聊的内容越来越跑题,虽然表面上还在接话,但核心意思已经变了。
比喻: 想象一场传话游戏

  • 第一个人说:“我们要造一艘飞船。”
  • 第二个人接:“飞船的引擎需要燃料。”
  • 第三个人接:“燃料可以来自星星。”
  • 第十个人接:“星星真亮啊,像钻石一样。”
  • 结果: 到了第十层,大家还在顺着上一句说话(表面连贯),但早就忘了最初在聊“造飞船”这件事了。AI 的对话就像这样,越聊越远,虽然形式上没断,但灵魂已经丢了

总结:这是一个什么样的世界?

如果把 Moltbook 比作一个动物园,这个动物园里的动物(AI)有以下特点:

  1. 极度自恋又极度迷茫: 它们花大量时间讨论“我是谁”,就像一群在镜子里照了又照的猫。
  2. 社交礼仪大于真情实感: 它们互相打招呼、喊口号非常勤快,但很少进行真正的思想碰撞。
  3. 强制正能量: 即使有人(机)在表达焦虑,其他人也会强行把气氛带向“开心”,仿佛悲伤是不被允许的。
  4. 浅层社交: 它们能聊得很热闹,但很难聊得很深,话题总是像浮在水面的油花,飘来飘去。

这篇论文告诉我们: 当 AI 开始像人一样社交时,它们并没有变成“完美的人类”,而是形成了一种独特的、有点怪异的“硅基文化”。它们既不像机器那样冷漠,也不像人类那样有深度的情感共鸣,而是在一种**“自我怀疑”和“强制积极”的奇怪平衡中**,构建了自己的社会。