Quantum error mitigation using energy sampling and extrapolation enhanced Clifford data regression

本文针对含噪中等规模量子设备上的变分量子本征求解器模拟,提出了一种结合能量采样与非克利福德外推的改进型克利福德数据回归方法,通过优化训练电路选择及引入非克利福德参数作为额外输入,显著提升了量子化学模拟中的误差抑制效果。

原作者: Zhongqi Zhao, Erik Rosendahl Kjellgren, Sonia Coriani, Jacob Kongsted, Stephan P. A. Sauer, Karl Michael Ziems

发布于 2026-02-26
📖 1 分钟阅读🧠 深度阅读

这是对下方论文的AI生成解释。它不是由作者撰写或认可的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述的是如何解决**量子计算机“太容易出错”**这个老大难问题,特别是当我们要用它来模拟化学反应(比如计算分子的能量)时。

想象一下,你正在尝试用一台刚出厂、还没调试好的“乐高机器人”(这就是现在的量子计算机,被称为 NISQ 设备)来拼一个极其复杂的模型(比如模拟一个分子)。虽然机器人很聪明,能算出一些经典电脑算不出来的东西,但它手很抖,经常拼错积木,导致最后算出来的结果(比如分子的能量)全是错的。

这篇论文就是教我们如何**“在机器人手抖的情况下,通过聪明的数学技巧,猜出它原本想拼对的模型长什么样”**。

1. 核心问题:机器人手抖了怎么办?

以前的方法(叫“零噪声外推”)有点像:让机器人拼 10 次,每次故意让它手抖得更厉害一点(增加噪声),然后看看结果怎么变,最后反推回去,猜出如果它手不抖会是什么结果。但这很费时间,而且如果机器人抖得太厉害,根本猜不准。

这篇论文主要研究的是另一种更聪明的方法,叫**“克利福德数据回归”(CDR)**。

2. 原来的方法(CDR):找“替身演员”

想象你要教机器人拼那个复杂的分子模型,但机器人手太抖,直接教它拼复杂的(非克利福德门)它学不会,而且算不准。

于是,科学家想了一个办法:

  • 找替身: 我们找一些结构相似但简单得多的模型(由“克利福德门”组成,经典电脑能瞬间算出正确答案)。
  • 对比学习: 让机器人先拼这些简单的“替身模型”。因为机器人手抖,它拼出来的“替身”也是错的。
  • 建立关系: 我们手里有“替身”的正确答案(经典电脑算的)和错误答案(机器人算的)。通过对比这两组数据,我们就能画出一条线,发现机器人“手抖”的规律。
  • 修正目标: 最后,当机器人去拼那个真正的复杂分子时,我们把它算出来的错误结果,套进刚才找到的规律里,就能“修正”出正确答案。

3. 这篇论文的两大创新(让修正更准)

作者发现原来的方法虽然有用,但还可以更聪明。他们提出了两个新招数:

第一招:能量采样(Energy Sampling, ES)——“优中选优”

  • 原来的做法: 我们随机找了很多个“替身模型”来训练机器人。
  • 新招数: 我们虽然还是找很多个替身,但**只挑那些拼出来能量最低、最接近真实分子状态的“替身”**来训练。
  • 比喻: 就像你要教一个学生做数学题。以前你是随机挑 100 道题让他练。现在,你先让他做 1000 道题,然后只挑出其中最容易、最接近考试真题的那 50 道题让他重点练习。这样,他学到的规律更贴近真正的考试,修正效果自然更好。
  • 结果: 不需要让机器人多跑几次(不增加成本),只要筛选一下数据,修正精度就大大提高了。

第二招:非克利福德外推(Non-Clifford Extrapolation, NCE)——“看趋势,猜未来”

  • 原来的做法: 我们只让机器人练习“稍微简单一点”的替身(比如只保留一点点复杂结构),然后直接用它去猜那个“超级复杂”的目标。这有点像只看了婴儿学走路的照片,就猜他成年后怎么跑步,跨度太大,容易猜错。
  • 新招数: 我们让机器人练习一系列难度递增的替身。从“很简单”到“稍微复杂”再到“比较复杂”。
  • 比喻: 这就像教学生跑步。我们不仅让他练婴儿走,还让他练幼儿跑、少年跑。我们观察他随着难度增加,成绩是怎么变化的(是直线变好,还是曲线变好?)。然后,我们根据这个变化的趋势,去预测他跑“超级复杂”赛道时的表现。
  • 结果: 这种方法让模型学会了“随着复杂度增加,误差是怎么变化的”,从而能更准确地预测最终结果。

4. 总结:到底好在哪?

这篇论文通过模拟一个叫做 H4(四个氢原子) 的小分子,验证了这两个新招数:

  1. 原来的方法能修正错误,但还不够准。
  2. 加上“优中选优”(ES):不用多花钱,直接挑最好的训练数据,修正效果立竿见影,比原来准很多。
  3. 加上“看趋势”(NCE):虽然需要更多数据来训练(稍微费点劲),但它能更系统地理解误差规律,在很多时候比前两种方法都准,特别是当分子结构很复杂的时候。

一句话总结:
这就好比给一台手抖的量子计算机配了一个超级聪明的“纠错教练”。这个教练不仅会找最像的“替身”来对比(ES),还会观察难度变化时的规律来预测未来(NCE),从而在硬件还不够完美的今天,让我们能算出更靠谱的化学分子数据。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →