INMS: Memory Sharing for Large Language Model based Agents

本文提出了 INMS 框架,通过建立异步交互范式下的共享对话记忆池,实现了大语言模型智能体间的实时记忆过滤、存储与检索,从而显著提升了多智能体在开放场景下的协作性能与集体自增强能力。

Hang Gao, Yongfeng Zhang

发布于 2026-03-06
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一个名为 INMS(交互式记忆共享)的新框架。为了让你轻松理解,我们可以把大语言模型(LLM)比作一群才华横溢但有点“社恐”的独行侠

🌟 核心问题:聪明的“独行侠”为何会卡壳?

想象一下,你有一群非常聪明的作家(AI 代理),他们各自关在独立的房间里写故事。

  • 现状:每个作家只记得自己以前写过的东西,或者只能查阅一本静止不动的旧百科全书(静态数据库)。
  • 痛点:当遇到一个从未见过的、开放式的难题(比如“写一首关于悲伤的打油诗”或“设计一个去火星的旅行计划”)时,他们因为缺乏交流,只能闭门造车。就像人类如果从不聊天、不互相学习,思维就会变得僵化,容易陷入死胡同。

💡 解决方案:INMS —— 一个“流动的公共聊天室”

INMS 框架就像是在这群作家之间建了一个24 小时开放的“公共聊天室”和“共享图书馆”

1. 异步对话:像发朋友圈一样交流

在这个框架里,Agent(代理)之间不需要面对面实时聊天,而是进行异步交流

  • 作家 A 抛出一个问题,并给出一个答案。
  • 这个“问题 + 答案”的组合(我们叫它 PA 对)被扔进公共聊天室。
  • 作家 B 看到后,可以借鉴这个思路来回答自己的问题,甚至激发新的灵感。
  • 比喻:这就像你在朋友圈发了一条高质量的经验贴,其他人点赞并转发,大家都能从中受益,而不是每个人都重新发明轮子。

2. 严格的“群主”审核(LLM Scorer)

公共聊天室不能什么垃圾信息都发。INMS 有一个专门的AI 群主(Scorer)

  • 每当有人往聊天室发内容,群主会拿着评分表(Rubrics)仔细打分。
  • 如果内容模糊、无聊或错误,直接拒收
  • 只有高质量、有创意的内容才能进入“共享图书馆”。
  • 比喻:就像编辑审稿,只有好文章才能刊登在报纸上,保证大家读到的都是精华。

3. 越用越聪明的“图书管理员”(Retriever)

这是 INMS 最厉害的地方。传统的图书馆(检索系统)是死的,书摆在那儿不会变。但 INMS 的图书管理员是活的

  • 随着聊天室里的好文章越来越多,图书管理员会自动学习:什么样的问题对应什么样的好答案。
  • 当新的问题出现时,管理员能更精准地从海量共享记忆中捞出最相关的“灵感”。
  • 比喻:就像一位老练的图书管理员,他不仅记得书在哪,还能根据读者的新需求,把以前读过的精彩故事串联起来推荐给你。

🚀 实验结果:从“单打独斗”到“集体智慧”

研究人员在三个领域做了测试:

  1. 文学创作(写诗、打油诗)
  2. 逻辑解谜(脑筋急转弯、谜语)
  3. 计划制定(旅行、健身、学习计划)

结果令人惊喜

  • 打破“回声室”效应:一开始,如果聊天室里的内容有点偏颇(比如大家都写得很烂),系统会慢慢引入新的高质量内容,把偏见“稀释”掉,让整体水平回升。
  • 跨模型互助:即使是用不同大模型(比如 GPT-4 和开源模型)训练的 Agent,也能互相学习。GPT-4 写的诗可以启发开源模型,反之亦然。
  • 性能飙升:使用了共享记忆的 Agent,在回答开放性问题时,准确率、创造力和逻辑性都大幅超过了那些“闭门造车”的 Agent。

📝 总结:INMS 是什么?

简单来说,INMS 就是让 AI 们学会“抱团取暖”和“互相抄作业”(当然是高质量的作业)。

它不再让 AI 依赖死板的数据库,而是让它们通过不断的互动、筛选和共享,共同构建一个动态生长的知识库。这就好比人类从“独自思考”进化到了“集体智慧”,让 AI 在面对复杂、未知的世界时,变得更加聪明、灵活和富有创造力。

一句话概括:INMS 让 AI 们不再做孤独的学霸,而是组成了一个互相学习、越聊越聪明的“超级智囊团”