LDP: An Identity-Aware Protocol for Multi-Agent LLM Systems

本文提出了 LLM 委托协议(LDP),这是一种将模型身份、推理画像等属性作为核心原语的 AI 原生通信协议,并通过插件实现与评估证明了其在降低延迟、减少 Token 消耗及提升系统可治理性方面的优势,同时也揭示了未经验证的置信度元数据可能带来的负面影响。

Sunil Prakash

发布于 Wed, 11 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章介绍了一个名为 LDP (LLM Delegate Protocol) 的新协议。为了让你更容易理解,我们可以把现在的多智能体(AI 机器人)系统想象成一家繁忙的“超级外包公司”

🏢 背景:现在的“外包公司”有什么问题?

想象一下,你是一家大公司的经理,你需要把任务分发给手下的员工(AI 模型)去处理。

  • 现状(A2A 和 MCP 协议): 目前,这些员工只有一张简单的名片。名片上写着:“我叫小明,我会写代码”、“我叫小红,我会做数学题”。
  • 问题: 当你把任务交给他们时,你不知道他们的真实水平。
    • 小明可能是一个刚毕业、写代码很慢但很便宜的实习生(小参数模型)。
    • 小红可能是一个年薪百万、逻辑极强但很贵的资深专家(大参数模型)。
    • 现在的协议只告诉你“小明会写代码”,却不告诉你“小明写代码很慢”或者“小红做数学题其实有点粗心”。
    • 结果: 经理(路由器)只能瞎猜。有时候把简单的任务(比如“把文件重命名”)交给了昂贵的专家,浪费钱又慢;有时候把复杂的任务(比如“写一个复杂的算法”)交给了实习生,结果搞砸了。

🚀 解决方案:LDP 协议(给员工发“超级身份证”)

LDP 协议就像是给每个 AI 员工发了一张详细的“超级身份证”,并建立了一套更聪明的沟通规则

1. 超级身份证 (Identity Cards)

现在的协议只给名字,LDP 给的是详细档案

  • 性格与特长: “我是‘深度分析型’选手,适合做复杂推理”或者“我是‘快速实用型’选手,适合做简单分类”。
  • 能力评分: 明确标注“我的准确率大概是 85%",“我的响应速度是 1 秒”。
  • 成本标签: “我很便宜”或“我很贵”。
  • 比喻: 就像你点外卖时,不再只看“这是一家餐厅”,而是能看到“这家店出餐快但口味一般”或者“这家店慢工出细活但价格高”。这样你点餐(分配任务)时就能按需分配,简单任务找快店,复杂任务找名店。

2. 灵活的沟通语言 (Payload Negotiation)

  • 现状: 大家交流时,不管任务多简单,都非得用长篇大论的自然语言(像写散文一样),浪费了很多时间和流量(Token)。
  • LDP 的做法: 允许双方协商用什么语言交流。
    • 如果是简单任务,直接发结构化数据(像填表格一样,只有关键信息),省字又省时间。
    • 如果对方看不懂表格,自动降级回自然语言(像手机信号不好自动切回 2G 网,保证能通)。
  • 比喻: 就像你和朋友聊天,如果是点咖啡,直接发个表情符号📍☕️(结构化数据)就够了,没必要发一段“亲爱的朋友,我想请你喝杯咖啡,地点在……"(自然语言)。

3. 长期会话 (Governed Sessions)

  • 现状: 现在的协议是“一次性”的。每说一句话,都要把之前的所有聊天记录重新发一遍,就像每次打电话都要先自我介绍并复述前 10 分钟的内容,非常啰嗦。
  • LDP 的做法: 建立长期会话。一旦连接建立,上下文就保存在服务器上了,后续对话只需要说“接着刚才的”就行。
  • 比喻: 就像你和一个老朋友聊天,不需要每次见面都重新介绍“我是谁,我们上次聊到哪了”,直接接着聊就行。这在大工程(多轮对话)中能节省大量成本。

4. 信任与验证 (Trust & Provenance)

  • 现状: 你不知道 AI 说的话是它自己瞎编的,还是经过验证的。
  • LDP 的做法: 每个回答都附带**“来源标签”**。
    • “这句话是我说的,我有 80% 的把握。”
    • “这句话我已经让另一个 AI 检查过了,通过。”
  • 重要发现: 论文发现一个有趣的现象——如果只给“自信度”而不给“验证结果”,反而更糟糕
    • 比喻: 就像一个吹牛的人说“我 100% 确定”,但没人核实,你信了反而容易出错。LDP 强制要求必须有“验证通过”的印章,才值得信任。

📊 实验结果:真的有用吗?

研究人员用本地的小模型做实验,对比了“旧协议(A2A)”和“新协议(LDP)”:

  1. 速度变快了: 对于简单任务,LDP 能自动派给“快但便宜”的模型,速度比旧协议快了 12 倍
  2. 省钱了: 使用结构化语言(填表格),节省了 37% 的字数(Token),这意味着直接省下了真金白银的 API 费用。
  3. 多轮对话更省: 在聊了 10 轮之后,旧协议因为要重复发送历史,浪费了 39% 的流量,而 LDP 没有这个浪费。
  4. 安全性更高(模拟测试): 如果黑客试图伪装成内部员工,LDP 能发现 96% 的伪装,而旧协议只能发现 6%
  5. 关于质量: 有趣的是,在简单的任务池子里,LDP 并没有让最终答案变得“更聪明”(因为模型本身能力有限),但它让资源分配更合理了

💡 总结

这篇论文的核心思想是:AI 模型不是黑盒子,它们有性格、有成本、有强弱。

以前的协议把它们当成普通的“服务”来调用,太粗糙了。LDP 协议就像给 AI 世界建立了一套**“精细化的人力资源管理系统”**:

  • 知道谁擅长什么(身份卡)。
  • 知道怎么沟通最省钱(协商语言)。
  • 知道怎么长期合作不啰嗦(会话管理)。
  • 知道谁的话可信(验证机制)。

虽然目前还在早期阶段,但它让 AI 之间的合作变得更聪明、更省钱、更安全,就像把一群散兵游勇变成了一支训练有素、分工明确的特种部队。