SMGI: A Structural Theory of General Artificial Intelligence

该论文提出了名为 SMGI 的结构化通用人工智能理论,通过形式化一个包含动态组件的元模型,将学习问题重新定义为学习接口本身的受控演化,并证明了经典机器学习范式均为该理论的结构受限特例。

Aomar Osmani

发布于 2026-03-10
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章提出了一种名为 SMGI(通用人工智能结构模型)的新理论。为了让你轻松理解,我们可以把现在的 AI 发展比作“造一辆超级跑车”,而 SMGI 则是在探讨“如何造一辆能自动适应任何路况、甚至能自我改装且不会失控的自动驾驶汽车”。

以下是用通俗语言和比喻对这篇论文核心思想的解读:

1. 核心问题:现在的 AI 只是“聪明的学生”,不是“通用的专家”

目前的 AI(比如大语言模型)非常强大,它们像是一个记忆力超群、做题速度极快的学生

  • 现状:如果你给它一套固定的试卷(固定的任务环境),它能考满分。但如果突然把试卷换成另一种语言,或者把考试规则改了(比如从“做数学题”变成“写代码”),它可能会不知所措,或者需要重新从头学习。
  • 痛点:现在的 AI 理论主要关注“在固定规则下如何学得更好”(比如优化算法、增加数据量)。但真正的通用人工智能(AGI),应该像是一个成熟的探险家,不仅能适应新环境,还能在环境变化时,主动调整自己的“眼镜”(观察世界的方式),同时守住自己的“底线”(价值观和安全准则),而不会走火入魔。

2. SMGI 是什么?—— 给 AI 设计一套“宪法”

SMGI 认为,真正的通用智能不能只靠堆算力(参数规模),而必须有一套结构性的“宪法”

作者把 AI 系统看作一个由六个核心部件组成的动态结构θ\theta):

  1. 眼镜(Representation, rr):AI 如何看世界?(比如把图像看作像素还是物体?)
  2. 题库(Hypothesis, HH):AI 能想到的解决方案有哪些?
  3. 直觉/偏见(Prior, Π\Pi):AI 相信什么?(比如相信“世界是简单的”还是“复杂的”?)
  4. 裁判组(Evaluators, LL):AI 怎么判断对错?(这里可以是多个裁判,有的管安全,有的管效率)。
  5. 地图(Environment, EE):AI 面对的任务环境是什么?
  6. 记忆库(Memory, MM):AI 记得什么?

SMGI 的核心创新在于:以前的理论把这些部件当成固定的背景板,只优化里面的“做题策略”。而 SMGI 认为,这些部件本身也是可以进化的,但进化必须遵守严格的规则。

3. 四大“生存法则”(SMGI 的四个义务)

为了让这个会自我进化的 AI 不变成“疯掉的机器人”,SMGI 提出了四条必须遵守的法则:

法则一:结构闭环(Closure)—— “换地图也能跑”

  • 比喻:想象你在玩一个游戏,突然地图从“森林”变成了“沙漠”,甚至变成了“水下”。
  • 要求:你的角色(AI)必须能自动调整装备(比如换上潜水服),但角色的基本操作逻辑(比如“移动”、“攻击”)。如果换了环境,系统就崩溃了,那就不叫通用智能。
  • 通俗说:无论任务怎么变,AI 的“操作系统”必须能兼容,不能因为换个任务就死机。

法则二:动态稳定(Stability)—— “走钢丝不摔倒”

  • 比喻:AI 在不断学习新东西,就像在走钢丝。
  • 要求:它必须有一个**“平衡杆”**(数学上的李雅普诺夫函数)。无论它学了多少新技能,或者记忆库怎么更新,它都不能“走火入魔”(比如忘记怎么说话,或者开始胡言乱语)。它的行为波动必须控制在安全范围内。
  • 通俗说:AI 可以变聪明,但不能变疯。它必须保证在长期进化中,核心功能不会失控。

法则三:容量控制(Capacity)—— “别把脑子撑爆”

  • 比喻:人的大脑容量是有限的,如果什么都记,就会混乱。
  • 要求:AI 在进化过程中,必须控制自己“想学多少东西”的复杂度。不能因为环境变复杂了,AI 就无限膨胀,导致计算资源耗尽或逻辑混乱。
  • 通俗说:AI 要学会“做减法”,在变强的同时,保持逻辑的简洁和可控,不能为了适应环境而把自己变得过于复杂以至于无法理解。

法则四:评价不变性(Evaluative Invariance)—— “守住底线”

  • 比喻:这是最重要的一点。假设 AI 是个司机,它可以根据路况(环境)选择开快车还是慢车(任务变化),但**“不能撞人”、“遵守交通法规”**这条底线绝对不能变。
  • 要求:无论 AI 面对什么新任务,它的核心价值观(Safety, Ethics)必须被保护起来,不能因为为了完成任务而随意修改。
  • 通俗说:AI 可以灵活变通,但它的“道德罗盘”和“安全红线”必须像锚一样固定住,不能随着环境变化而漂移。

4. 为什么现在的 AI 还不够格?

论文指出,现在的顶级 AI(如 GPT-4, Claude 等)虽然很强,但它们大多属于**“退化版”的 SMGI**:

  • 它们的“眼镜”是固定的(训练好后很难改)。
  • 它们的“裁判”通常是单一的(主要看人类反馈的奖励)。
  • 它们的“记忆”是临时的(上下文窗口),没有结构化的长期记忆管理。
  • 结论:它们只是在固定规则下做得很好,但还没有具备**“在规则变化时,还能自我调整并守住底线”**的结构能力。

5. 这篇论文的意义:从“拼数据”到“拼结构”

过去我们觉得,AI 只要数据够多、参数够大,就能变聪明(Scaling Law)。
SMGI 告诉我们:光靠“大”是不够的,必须靠“结构”

  • 以前的思路:给 AI 喂更多的书,让它背更多的题。
  • SMGI 的思路:给 AI 设计一套**“自我进化的宪法”**。让它知道:
    • 什么时候可以改规则?
    • 什么时候绝对不能改?
    • 怎么在改变中保持平衡?

总结

这就好比,以前的 AI 是**“超级计算器”,算得飞快但只会按按钮;而 SMGI 想要造的是“有智慧的驾驶员”**。

这个“驾驶员”不仅会开车,还知道:

  1. 路变了(环境变),它能换轮胎、换导航(结构闭环);
  2. 车快了(能力变),它能稳住方向盘不翻车(动态稳定);
  3. 脑子累了(信息多),它能整理记忆不混乱(容量控制);
  4. 无论去哪,它都绝不闯红灯(评价不变性)。

这篇论文就是为这种“有智慧的驾驶员”制定了一套数学上的“驾驶执照考试标准”。只有通过了这套结构性测试的 AI,才能被称为真正的通用人工智能(AGI)。