Predictive Coding Graphs are a Superset of Feedforward Neural Networks

该论文证明了预测编码图(PCGs)在数学上是前馈人工神经网络(多层感知机)的超集,从而将预测编码网络更紧密地融入现代机器学习框架,并强化了对神经网络拓扑结构的研究。

Björn van Zwol

发布于 Mon, 09 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文提出了一项非常有趣的发现,我们可以把它想象成给神经网络世界画了一张新的“地图”

为了让你轻松理解,我们不用复杂的数学公式,而是用几个生活中的比喻来拆解这篇论文的核心内容。

1. 核心故事:从“单行道”到“任意路网”

想象一下传统的前馈神经网络(FNN)(也就是我们常说的普通深度学习模型,比如识别猫和狗的那个)。

  • 比喻:它就像一条严格单向的地铁线。乘客(数据)只能从起点(输入层)上车,经过中间几站(隐藏层),最后到达终点(输出层)。乘客不能回头,也不能在中间乱跑,更不能从终点直接跳回起点。
  • 现状:这种结构非常高效,但有点死板。

现在,论文的主角登场了:预测编码图(PCGs)

  • 比喻:PCG 就像是一个拥有任意连接的城市交通网。在这里,乘客不仅可以向前坐,还可以:
    • 回头(反向连接):从下一站跳回上一站。
    • 横穿(侧向连接):从左边直接跳到右边。
    • 甚至绕圈(循环连接):在某个区域转圈圈。
  • 论文结论:作者证明,这个“任意路网”(PCG)其实是一个超级集合。那个死板的“单向地铁”(普通神经网络)只是这个超级路网中一种特别简单的情况(只要把那些回头、横穿的线路都关掉,只留单向的,它就变成了普通地铁)。

2. 两个关键发现

作者通过两个步骤证明了这一点:

第一步:当“考试”时,它们是一模一样的

  • 场景:想象神经网络在“学习”(训练)和“考试”(测试/推理)两种状态。
  • 发现:在“考试”时(也就是模型已经训练好,用来做预测的时候),预测编码网络(PCN)的表现和普通神经网络(FNN)完全一样
  • 比喻:这就好比,虽然 PCN 平时学习时像个在迷宫里到处乱撞、不断修正路线的探险家(因为它有复杂的反馈机制),但一旦它学会了,到了考场上,它走的路径和普通只走直线的学生完全重合
  • 意义:这意味着,既然普通神经网络能解决几乎所有问题(万能函数逼近定理),那么 PCN 也能!这给 PCN 在数学上发了一个“通行证”。

第二步:PCG 是 PCN 的“超级升级版”

  • 发现:预测编码网络(PCN)通常被设计成层级分明的(像金字塔)。但作者发现,如果把 PCN 的权重矩阵稍微变一下(允许非层级连接),它就变成了更通用的 PCG。
  • 比喻:PCN 就像是一个按楼层设计的酒店(客人只能从一楼到二楼,再到三楼)。而 PCG 则是把酒店拆掉围墙,变成了一个巨大的综合体。在这个综合体里,你可以从三楼直接坐滑梯到一楼,或者在二楼和四楼之间走天桥。
  • 关键点:作者证明了,如果你在这个综合体里只保留“从一楼到二楼,二楼到三楼”的电梯,把它封死其他所有通道,它就完美变回了那个按楼层设计的酒店。所以,PCG 包含了 PCN,而 PCN 在考试时又等于普通神经网络。
  • 结论PCG 是普通神经网络的“超级集合”

3. 为什么要关心这个?(这对我们意味着什么?)

这篇论文不仅仅是玩数学游戏,它有几个很酷的实际意义:

  1. 打破思维定势
    以前我们觉得神经网络必须像金字塔一样一层层叠。现在我们知道,大脑可能并不是这样工作的。大脑里充满了复杂的循环和反馈。PCG 允许我们构建像大脑一样复杂的网络结构(有回路、有横向连接),而不仅仅是死板的层级。

  2. 跳过连接(Skip Connections)的真相
    现在的热门技术(如 ResNet)允许数据“跳过”中间层直接传下去。作者指出,这其实就是 PCG 这个“超级路网”里的一种连接方式。既然 PCG 允许更多种连接(比如反向、侧向),那这些还没被充分开发的连接方式,会不会带来更强大的 AI 能力? 这是一个巨大的探索空间。

  3. 更“生物”的 AI
    普通神经网络训练时用的“反向传播”(Backpropagation)被很多科学家认为不太像大脑(大脑不会把误差信号原封不动地倒着传回去)。PCG 使用一种叫“推理学习”(Inference Learning)的方法,更像大脑的运作方式。这篇论文证明了,即使我们换了一种更像大脑的算法,我们依然拥有普通神经网络的所有能力,甚至更多。

4. 唯一的“小缺点”

虽然 PCG 很强大,但它也有个代价。

  • 比喻:普通地铁(FNN)是单向的,计算速度极快,像闪电一样。而 PCG 这个“城市路网”因为允许到处乱跑,计算时需要反复迭代(像在迷宫里不断试错),所以速度会慢一些
  • 展望:但这就像早期的汽车比马车慢一样,随着硬件和算法的进步,这种速度差可能会被它带来的强大能力所抵消。

总结

这篇论文告诉我们:
预测编码图(PCGs)是一个巨大的工具箱,里面装着我们熟悉的普通神经网络,还装满了各种我们还没完全利用的、像大脑一样复杂的连接方式。

以前我们只敢用工具箱里那把最简单的锤子(普通神经网络),现在作者告诉我们,你可以放心大胆地拿起那些更复杂、更灵活的工具(任意拓扑结构的 PCG),去构建更强大、更像生物大脑的人工智能。这为未来的 AI 研究打开了一扇新的大门。