An Updated Assessment of Reinforcement Learning for Macro Placement

该论文通过引入更强的退火基线、发布新的亚 10 纳米基准测试并采用商业工具进行真实评估,对 Google 的 Circuit Training 宏布局方法进行了更新评估,揭示了其在可扩展性和预训练方法等方面仍存在的未决问题及研究复现性挑战。

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang

发布于 2026-03-12
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章就像是一场**“芯片设计界的‘打假’与‘大考’"**。

为了让你轻松理解,我们可以把芯片设计想象成在一个巨大的城市里规划摩天大楼(宏模块)和无数个小房子(标准单元)的位置

1. 背景:那个“天才”的传说

几年前,Google 在顶级期刊《Nature》上发表了一篇轰动性的文章。他们声称,自己发明了一种基于**人工智能(强化学习)**的“超级规划师”(叫 Circuit Training 或 AlphaChip)。

  • 他们的说法是:这个 AI 能在6 小时内,自动画出比人类专家更好、甚至比传统数学方法更完美的城市蓝图(芯片布局),而且省电、面积小、速度快。
  • 当时的反响:大家都惊呆了,觉得 AI 要统治芯片设计界了。

2. 问题:为什么大家开始怀疑?

虽然 Google 说“代码和数据随时可查”,但过了好几年,其他科学家还是很难完全复现他们的结果。这就好比有人宣称造出了一辆“永动机”,但拒绝公开图纸,或者图纸太模糊,别人造出来根本跑不起来。

  • 疑点:是真的 AI 太强了?还是因为 Google 用了别人看不到的“秘密武器”(比如特殊的测试数据、没公开的代码细节)?
  • 现状:到了 2025 年,这篇论文的作者(来自 UCSD 等机构)决定不再等待,而是亲自下场,把 Google 的方法重新跑一遍,看看是不是真的那么神。

3. 他们做了什么?(这场“大考”的三大法宝)

为了公平起见,作者们不仅复现了 AI,还升级了传统的“老派”方法,并引入了更严格的考试标准。

法宝一:给“老派选手”穿上神装(更强的模拟退火)

以前大家觉得传统的数学方法(叫“模拟退火”,SA)太慢、太笨,被 AI 甩在后面。

  • 作者的升级:他们给这个老方法加了“多线程”和一种叫“赢家通吃”(Go-With-The-Winners)的策略。
  • 比喻:想象以前是320 个独自在迷宫里乱撞的探险家,谁先找到出口谁赢。现在作者让这 320 个人每走几步就互相交流,把最好的路线共享给所有人,然后大家一起往那个方向冲。
  • 结果:这个升级后的“老派选手”,用1/4 的电脑资源,跑得比 AI 还快,找到的路线(芯片布局)甚至比 AI 更好!

法宝二:换了更难的“考场”(亚 10 纳米测试)

Google 以前用的测试题目比较旧(45nm 或 12nm),就像用“小学数学题”来证明 AI 是天才。

  • 作者的升级:他们把题目换成了Google 最新的 7nm 技术,甚至把题目难度加倍(把芯片里的模块数量翻倍、翻四倍)。
  • 比喻:以前是考“走迷宫”,现在直接考“在拥挤的早高峰高峰期规划整个城市的交通”。
  • 结果:在更难的题目下,AI 的表现开始不稳定,甚至有时候直接“死机”(不收敛),而升级后的传统方法依然稳如泰山。

法宝三:用“真金白银”来打分(商业工具验证)

AI 自己打分说“我很好”,但这可能是自嗨。

  • 作者的升级:他们用了业界最贵的商业软件(Cadence)来跑最终的流程。这就像不仅看 AI 画的草图,还要真的把楼盖起来,看看会不会塌、会不会漏电。
  • 结果:AI 优化的指标(代理成本)和最终盖好楼的实际效果(功耗、面积、速度)相关性很差。也就是说,AI 觉得自己考满分,但实际考试不及格。

4. 核心发现:AI 真的输了吗?

这篇论文并没有完全否定 AI,而是指出了几个关键问题:

  1. AI 还没完全超越人类和传统方法:在大多数测试中,升级后的传统方法(SA)和人类专家,在实际效果(省电、省地、跑得快)上,依然优于 Google 最新的 AI 模型。
  2. AI 是个“资源怪兽”:AI 需要巨大的算力(8 张顶级显卡 + 大量 CPU),而传统方法只需要几台普通服务器。这就好比 AI 是用核动力在跑,传统方法是用自行车,结果自行车还跑赢了。
  3. AI 的“黑盒”问题:AI 的训练过程充满了随机性。同样的设置,跑两次结果可能天差地别。而且,AI 优化的目标(代理成本)和最终芯片好不好用(真实指标)之间,并没有很强的联系。这就像 AI 拼命练习“把字写得整齐”,但最后考试考的是“文章有没有逻辑”,它练偏了。
  4. 可扩展性存疑:当芯片变得特别大(模块超过 500 个)时,AI 经常训练失败,而传统方法依然能搞定。

5. 总结与启示

这篇文章就像是一盆理性的冷水,泼向了当时对 AI 设计芯片的盲目狂热。

  • 对科研界的警示:如果一项伟大的发现不能公开代码和数据,不能让别人复现,那它的可信度就要打问号。科学需要“透明”,不能只靠“黑盒”吹牛。
  • 对行业的启示:AI 在芯片设计领域很有潜力,但目前还没有到可以完全取代传统数学方法的地步。传统的“老派”算法经过优化,依然非常强大且高效。
  • 未来的方向:我们需要更透明的数据、更公平的测试标准,以及真正理解 AI 到底在优化什么,而不是盲目追求“从 scratch(从零开始)训练”的噱头。

一句话总结
Google 的 AI 芯片设计确实很酷,但经过严格的“脱敏”测试和升级后的传统方法对比,AI 目前并没有像宣传的那样“碾压”一切。在芯片设计这个硬核领域,“稳扎稳打”的传统智慧加上透明的科学态度,依然比“黑盒魔法”更可靠。