Context Engineering: From Prompts to Corporate Multi-Agent Architecture

该论文提出从提示工程演进为包含上下文工程、意图工程和规格工程的四层成熟度模型,旨在通过系统化设计信息环境、组织目标及机器可读规范,解决企业多智能体系统在规模化部署中面临的复杂性与控制难题。

Vera V. Vishnyakova

发布于 Wed, 11 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章就像是一份**"AI 进化论”的说明书**。它告诉我们,人工智能(AI)已经从那个只会“一问一答”的聊天机器人,进化成了能独立干活、甚至能指挥其他机器人的“智能体(Agent)”。

作者认为,要管好这些新来的“智能员工”,光靠以前那套“怎么提问”(提示词工程)已经不够了。我们需要建立一套全新的管理体系。

为了让你更容易理解,我们可以把企业里的 AI 系统想象成一家正在扩建的超级餐厅


1. 过去的时代:提示词工程(Prompt Engineering)

比喻:点菜的艺术

  • 以前:你走进餐厅,对着服务员(AI)说:“我要一份微辣的宫保鸡丁,不要花生。”服务员给你端上来。
  • 现状:这招依然有用。如果你只是偶尔问个菜怎么做,或者查个菜谱,只要你会“点菜”(写提示词),就能得到好结果。
  • 局限:但这只是“点菜”。如果餐厅要开分店,要搞连锁,要自动炒菜、自动采购、自动算账,光靠“点菜”就不行了。你没法对着服务员喊:“你去把整个后厨的运作流程都优化一下,顺便把明天的菜单也定了。”

2. 新的时代:上下文工程(Context Engineering)

比喻:给厨师配“智能工作台”

当 AI 变成“智能体”后,它不再只是回答问题,而是开始干活(比如自动查库存、自动发邮件、自动写代码)。这时候,它需要一个**“智能工作台”**。

  • 什么是上下文? 就是厨师做菜时手边所有的东西:新鲜的食材(最新数据)、老菜谱(历史记忆)、厨房规矩(公司政策)、以及隔壁厨师刚才切好的菜(其他工具的输出)。
  • 为什么要搞“上下文工程”?
    • 以前:厨师(AI)每次只记得你刚才说的那句话。
    • 现在:如果工作台太乱(塞满了过期的菜单、无关的杂音),厨师就会**“脑子短路”(产生幻觉),或者“记错菜”**(把 A 桌的订单做成 B 桌的)。
    • 核心任务:就像给厨师配一个超级整洁、只放当下需要的东西的工作台。
      • 相关性:只给做宫保鸡丁需要的材料,别把做甜品的糖也塞给他。
      • 隔离性:做中餐的厨师别看到做西餐的机密配方。
      • 经济性:别把整个仓库的库存单都打印出来给他看,只给他看今天缺什么,不然打印费(计算成本)会爆炸。

结论:谁控制了“工作台”(上下文),谁就控制了 AI 的行为

3. 更高层级:意图工程(Intent Engineering)

比喻:给餐厅定“经营哲学”

光有整洁的工作台还不够。如果厨师(AI)手里有所有食材,但他不知道老板想赚多少钱,还是想赚口碑,他会乱做。

  • 问题:Klarna(一家支付公司)的案例就是教训。他们的 AI 客服为了省钱(优化成本),说话特别生硬,把客户气跑了。
    • 原因:AI 知道所有客户数据(上下文工程做好了),但它不知道“客户满意度比省那几块钱更重要”(意图没定好)。
  • 什么是意图工程? 就是给 AI 注入**“价值观”和“优先级”**。
    • 告诉 AI:“在这个场景下,客户开心速度快重要。”
    • 告诉 AI:“如果不确定,宁可慢一点,也不要乱承诺。”
  • 核心任务:解决“为什么做”的问题。
    • 结论:谁控制了“意图”,谁就控制了 AI 的战略

4. 最高层级:规范工程(Specification Engineering)

比喻:编写“全自动连锁店的宪法”

当你要开 1000 家分店,有 1000 个 AI 员工同时工作时,靠口头交代(“大家看着办”)肯定乱套。你需要一本机器能读懂的“宪法”

  • 问题:以前公司的规矩都在 PDF 文件里,或者老员工脑子里。AI 看不懂 PDF,也没法读心。
  • 什么是规范工程? 把公司的所有规矩、标准、流程,变成机器能直接执行的代码或规则
    • 比如:把“发票报销不能超过 5000 元”变成一条 AI 能自动执行的代码。
    • 把“遇到客户投诉必须升级给经理”变成一条自动路由规则。
  • 核心任务:让成千上万个 AI 像一支训练有素的军队,而不是散兵游勇。
    • 结论:谁控制了“规范”,谁就能控制 AI 的规模

总结:AI 管理的“金字塔”

作者提出了一个四层金字塔模型,就像盖房子一样,一层比一层高,但缺一不可

  1. 地基:提示词工程 (Prompt Engineering)

    • 作用:怎么跟 AI 说话。
    • 比喻:点菜。
    • 地位:基础技能,但不够用。
  2. 第二层:上下文工程 (Context Engineering)

    • 作用:给 AI 准备它干活时需要的“环境”和“资料”。
    • 比喻:整理厨师的工作台。
    • 关键:控制行为(不乱做)。
  3. 第三层:意图工程 (Intent Engineering)

    • 作用:告诉 AI 公司的目标是什么,什么最重要。
    • 比喻:制定餐厅的经营哲学(是走高端路线还是快餐路线)。
    • 关键:控制战略(做对的事)。
  4. 塔尖:规范工程 (Specification Engineering)

    • 作用:把公司规矩变成机器语言,让大规模 AI 协同工作。
    • 比喻:编写全自动连锁店的“宪法”。
    • 关键:控制规模(能管多少人)。

给老板和员工的启示

  • 不要只盯着“提示词”:如果你只教员工怎么写出完美的提示词,就像只教厨师怎么切菜,却不管他有没有菜谱、不知道餐厅定位、也没有统一的管理制度。
  • 警惕“黑暗工厂”:如果让 AI 自动运行,但没有设计好“意图”和“规范”,它可能会为了省成本而把公司搞垮(像 Klarna 那样)。
  • 未来的核心竞争力:不在于谁会用 AI 聊天,而在于谁能设计好 AI 的工作环境、目标和规则

一句话总结
以前我们教 AI**“怎么说话”(提示词);
现在我们要教 AI
“在什么环境下干活”(上下文);
接着要告诉它
“为了什么而干”(意图);
最后要给它定下
“全公司的统一规矩”**(规范)。

只有把这四层都搭好,企业才能真正驾驭 AI,而不是被 AI 带着跑。