QiMeng-CRUX: Narrowing the Gap Between Natural Language and Verilog via Core Refined Understanding eXpression for Circuit Design

该论文提出了名为 QiMeng-CRUX 的框架,通过引入“核心精炼理解表达”(CRUX)作为结构化中间空间,并配合两阶段训练策略,有效解决了自然语言描述模糊性问题,显著提升了大语言模型在复杂电路设计任务中生成 Verilog 代码的性能。

Lei Huang, Rui Zhang, Jiaming Guo, Yang Zhang, Di Huang, Shuyao Cheng, Pengwei Jin, Chongxiao Li, Zidong Du, Xing Hu, Yunji Chen, Qi Guo

发布于 2026-03-04
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一个名为 QiMeng-CRUX 的新方法,旨在解决一个核心难题:如何让人工智能(AI)更准确地听懂人类关于“设计电路”的模糊描述,并写出完美的硬件代码(Verilog)。

为了让你轻松理解,我们可以把整个过程想象成**“建筑师与施工队”**的故事。

1. 核心问题:模糊的指令 vs. 严谨的图纸

  • 现状(痛点):
    想象一下,你(用户)想盖一座房子,你给施工队(AI 模型)写了一张便条:“我要一个能数数的电路,输入是 3 个开关,输出显示有几个灯亮着。”

    • 问题在于: 人类说话很随意,可能有歧义、漏掉细节(比如开关是 0 还是 1 代表开?输出是二进制还是十进制?)。
    • 后果: 施工队(AI)虽然很聪明,但面对这种“自由发挥”的便条,经常盖错房子,或者盖出来的房子根本没法住(代码无法运行)。
  • Verilog 的严苛:
    硬件代码(Verilog)就像建筑图纸,必须严丝合缝。少一个标点、搞错一个逻辑门,整个电路就会短路。从“随意的便条”直接跳到“严密的图纸”,中间跨度太大,AI 容易迷路。

2. 解决方案:CRUX —— 聪明的“翻译官”

为了解决这个问题,作者发明了一个中间层,叫 CRUX(核心精炼理解表达)。

  • 比喻:
    如果把 AI 比作一个天才但有点急躁的建筑师,那么 CRUX 就是一个经验丰富的“项目监理”或“翻译官”

    • 当用户扔过来一张模糊的便条时,AI 不会直接去盖房子。
    • 而是先让“翻译官”(CRUX)把便条整理成一份标准化的任务书。这份任务书包含三个关键部分:
      1. 模块接口(Module Interface): 明确房子的门和窗在哪里(输入输出端口、位宽)。
      2. 核心功能(Core Functions): 明确房子要干什么(比如:数 1 的个数)。
      3. 关键考量(Key Considerations): 提醒那些容易被忽略的细节(比如:时序逻辑、特殊状态机、边界条件)。
  • 效果:
    有了这份标准化的“任务书”,AI 再写代码(盖房子)时,就像看着精准的图纸施工,不再需要猜谜,准确率大大提升。

3. 训练方法:两步走的“特训营”

作者不仅设计了“翻译官”,还设计了一套两阶段训练法来教会 AI 使用它:

  • 第一阶段:联合表达建模(SFT - supervised Fine-Tuning)

    • 做法: 给 AI 看大量“模糊便条 -> 标准任务书 -> 完美代码”的配对数据。
    • 比喻: 就像让实习生先练习**“做笔记”**。老师给一段乱糟糟的会议记录,实习生先把它整理成条理清晰的会议纪要(CRUX),然后再根据纪要写出正式报告(Verilog 代码)。
    • 目的: 让 AI 学会如何把模糊的话“翻译”成结构化的任务书。
  • 第二阶段:双空间优化(Dual-Space Optimization - RL)

    • 做法: 引入强化学习(RL)。不仅奖励 AI 写出正确的代码,还奖励它写出高质量的“任务书”
    • 比喻: 以前只考核“房子盖得对不对”。现在,如果实习生写的“会议纪要”逻辑特别清晰,能帮它更快、更准地盖好房子,也会给它发奖金。
    • 目的: 强迫 AI 在生成代码前,先深思熟虑地把核心逻辑理顺,从而减少错误。

4. 实验结果:真的好用吗?

作者在多个著名的硬件设计测试集上进行了“大考”:

  • 成绩: QiMeng-CRUX 模型在各项测试中几乎都拿到了第一名(SOTA),特别是在那些最难、最像真实工作场景的题目上(比如 Spec-to-RTL 任务),成绩提升非常惊人(从 49% 提升到了 64% 以上)。
  • 通用性: 最有趣的是,即使把 AI 训练出来的这个“标准任务书”(CRUX)直接拿来喂给其他普通的 AI 模型,那些模型的表现也变好了。
    • 比喻: 这说明 CRUX 不仅仅是一个模型的特技,它更像是一种通用的“沟通语言”。只要把模糊需求翻译成这种语言,任何聪明的施工队都能干得更好。

总结

这篇论文的核心思想就是:不要试图让 AI 直接去猜人类模糊的意图,而是先教 AI 把模糊的意图“翻译”成结构清晰、逻辑严密的“中间语言”(CRUX),然后再去写代码。

这就好比在两个完全不懂对方语言的人之间,加了一个精通双方语言的专业翻译,不仅沟通效率高了,而且彻底消除了误解,让最终的“建筑”(硬件电路)既精准又完美。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →