Motion Illusions Generated Using Predictive Neural Networks Also Fool Humans

该论文提出了一种基于视频预测神经网络的生成模型 EIGen 来创造视觉运动错觉,并通过人类实验证实了这些错觉的有效性,从而支持了“错觉运动源于大脑对预测的感知而非原始视觉输入”的假设,同时倡导利用人工智能模仿生物系统的“动机性失败”来推动相关研究。

Lana Sinapayen, Eiji Watanabe

发布于 2026-03-06
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章讲述了一个非常有趣的故事:科学家试图通过“模仿大脑的失败”来理解为什么我们会看到并不存在的运动。

想象一下,你盯着墙上的一幅画,明明它是静止的,但你的眼睛却觉得它在旋转、在跳动。这就是“运动错觉”。为什么大脑会犯这种错?这篇文章给出了一个大胆的答案:因为大脑太擅长“预测”未来了,有时候它太自信,把预测当成了现实。

为了证明这一点,作者们没有只靠观察人类,而是造了一个“数字大脑”(人工智能),并故意让它犯和人类一样的错。

以下是用通俗语言和比喻对这篇论文的详细解读:

1. 核心思想:大脑是个“预言家”

  • 比喻: 想象你的大脑是一个极其聪明的天气预报员。它每时每刻都在根据过去的经验预测下一秒会发生什么。
    • 如果你看到乌云,大脑会预测“要下雨了”,于是你提前打伞。
    • 在视觉中,如果大脑看到某种图案(比如旋转的蛇),它会预测“这东西在动”。
  • 问题出在哪? 有时候,这个“天气预报员”太自信了。即使外面根本没下雨(图片是静止的),它还是坚持说“在下雨”,甚至让你真的感觉到雨滴打在脸上。这就是运动错觉的成因:你看到的不是眼睛接收到的真实画面,而是大脑“脑补”出来的预测画面。

2. 实验方法:制造一个“会做梦”的 AI

作者们没有直接研究人脑,而是造了一个叫 EIGen 的 AI 系统。这个系统由两个部分组成,就像是一个**“画家”和一个“挑剔的评委”**:

  • 画家 (生成器): 它负责画各种奇怪的图案。它像一个疯狂的艺术家,不断尝试新的设计。
  • 评委 (预测网络): 这是一个受过训练的 AI,它的任务是看视频并预测“下一帧画面是什么”。
    • 如果评委看到一张静止的图,它预测下一帧还是这张图,那就对了。
    • 但如果评委看到一张静止的图,却预测“下一帧它旋转了”,那就说明这个图案成功“欺骗”了评委,让评委以为它在动。

关键步骤(进化算法):

  1. 画家画出 100 张图。
  2. 评委看这些图,如果哪张图让评委产生了“它在动”的错觉,这张图就得高分。
  3. 高分的图会被“遗传”下去,画家会根据这些特征画出更好的图。
  4. 经过无数轮的“优胜劣汰”,AI 终于画出了能让评委产生强烈错觉的图案。

3. 惊人的发现:AI 和人类“同病相怜”

这是论文最精彩的部分。作者们把 AI 画出来的这些“诱骗图案”拿给真人看。

  • 结果: 真人看到这些 AI 画的图,竟然也产生了和 AI 一样的错觉!
  • 比喻: 这就像是你造了一个机器人,你故意教它走错路(比如看到红灯以为能过)。然后你发现,当你把同样的路给人类走时,人类也走错了。
  • 结论: 这说明 AI 和人类的大脑在处理视觉信息时,使用了相同的“底层逻辑”。既然 AI 是因为“过度预测”才产生错觉,那么人类产生错觉的原因很可能也是“过度预测”。

4. 具体的实验细节(简单版)

  • 黑白 vs. 彩色: 研究发现,AI 画出来的黑白图案产生的错觉比彩色的强得多。这就像黑白电影有时候比彩色电影更有那种“老式恐怖感”一样,黑白的高对比度更容易触发大脑的预测机制。
  • 重新发现经典: AI 在进化过程中,竟然自己“发明”出了人类历史上著名的“旋转蛇”错觉和“青蛙学校”错觉。这就像是一个从未见过乐谱的作曲家,自己写出了贝多芬的曲子,说明这种“欺骗大脑”的规律是客观存在的。
  • 人类测试: 作者找了 293 个人做测试。结果显示,虽然 AI 画的图不如人类大师(如 Akiyoshi Kitaoka)画的那么震撼,但确实有三分之一到一半的人能感觉到明显的运动。

5. 这篇文章的意义是什么?

  • 不仅仅是看错觉: 以前我们研究错觉,主要是为了看大脑哪里“坏”了。但这篇论文提出了一种新视角:“失败”是有价值的。
  • 比喻: 就像通过研究汽车为什么抛锚,我们能比研究汽车怎么跑得更懂汽车的结构。
  • AI 的新方向: 作者呼吁,未来的 AI 研究不应该只追求“完美”,而应该尝试**“模仿生物系统的失败”**。如果一个 AI 能像人类一样“犯错”(产生同样的错觉),那它才真正像人类的大脑,而不仅仅是模仿人类行为的机器。

总结

这篇论文就像是一场**“大脑与 AI 的捉迷藏”**。
科学家造了一个 AI,让它去“骗”另一个 AI(预测网络)。当这个 AI 成功骗过评委后,它把骗术展示给人类,发现人类也被骗了。
这证明了:我们和 AI 一样,都是被自己的“预测能力”所欺骗的。 我们看到的运动,往往是大脑为了“抢跑”而提前生成的幻象。

一句话总结: 我们看到的静止画面在动,是因为大脑太想预测未来了;而当我们造出一个也会“想太多”的 AI 时,它竟然也能画出让我们产生同样幻觉的图案。