Each language version is independently generated for its own context, not a direct translation.
想象你正试图在一片广阔而迷雾笼罩的群山中找到最低点。这个最低点代表了一个复杂分子最稳定、即“基态”的能量。在量子计算的世界里,找到这个点对设计新药物或新材料至关重要,但地形如此崎岖,迷雾如此浓重,使得导航变得极其困难。
本文描述了一个研究团队,他们试图构建一个智能 GPS,以帮助量子计算机更快、更准确地找到那个最低点。
以下是他们旅程的故事,分解为简单的概念:
1. 问题:嘈杂的量子汽车
研究人员正在使用 NISQ 设备。你可以将它们想象为“含噪中等规模量子”计算机。
- 类比:想象一辆正在车库中制造的非常强大的跑车(量子计算机)。它拥有巨大的马力(量子比特),但发动机在喘息,轮胎已经磨平,方向盘也松动了(噪声)。它尚未准备好参加跨州比赛(容错计算),但仍然可以在街区周围行驶。
- 挑战:要从这辆喘息的汽车中获得最佳结果,你必须完美地调校发动机。这些“调校旋钮”被称为超参数。如果你把它们拧错了方向,汽车就会熄火或原地打转;如果你把它们拧得恰到好处,它甚至可能赢得比赛。
2. 解决方案:"GPS"(机器学习)
由 Avner Bensoussan 及其同事领导的团队决定使用机器学习(ML)作为 GPS。他们不想猜测该转动哪些旋钮,而是希望计算机能够基于过去的经验学习最佳设置。
- 训练阶段:他们无法立即在巨大且困难的山脉(28 量子比特系统)上进行测试,因为迷雾太浓,汽车也太不可靠。因此,他们从清晰的小山丘(最多 16 量子比特的系统)开始。
- 数据收集:他们在这些小山丘上驾驶他们的量子汽车数千次,记录了每一次尝试的设置及其表现。
- 模型:他们将这些数据输入到一个“回归器”(一种人工智能,具体为XGBoost)中。可以将这个 AI 想象成一个学习了数千张小山丘地图的学生,并掌握了规律:“当山丘看起来像 X 时,将旋钮转到 Y 通常效果最好。”
3. 测试:驶向大山
一旦这个 AI 学生训练完成,他们便带它前往那些巨大且迷雾笼罩的大山(20、24 和 28 量子比特系统)。他们并没有让 AI 直接驾驶汽车,而是询问 AI:“基于你在小山丘上学到的东西,这座大山的最佳设置是什么?”
他们在两种不同的量子驾驶策略上测试了这一点:
- ADAPT-QSCI:一种逐步构建解决方案的方法,就像组装拼图。
- QCELS:一种利用时间演化的方法,就像观看分子随时间变化的电影,以观察它最终停留在何处。
4. 结果:喜忧参半
结果有点像“充满希望的开端,但我们还需要更多练习”的故事。
- 胜利:在最大、最困难的山脉(28 量子比特系统)上,AI 建议的设置确实起到了帮助作用。它们将误差(距离真实最低点的距离)减少了约0.12%。这是一个很小的数字,但在这场高风险的游戏中,每一个百分点都至关重要。它还有助于汽车更快地完成比赛(所需的迭代次数更少)。
- 挣扎:在中等规模的山脉(20 和 24 量子比特)上,AI 并不总是有帮助。有时,它建议的设置使得汽车的表现比直接使用默认设置还要差。
- 原因:研究人员意识到,AI 之所以挣扎,是因为小山丘的“地形”(训练数据)与大山并不完全相同。AI 试图将小山的规则应用到大山脉上,而物理规律变得过于复杂。
5. 结论:进行中的工作
该论文得出结论,利用机器学习来调校量子计算机是一个可行的想法,但它还不是万能药。
- 要点:AI 可以预测良好的设置,但它需要更好地理解问题的具体“形状”(哈密顿量)。
- 未来计划:团队计划用更多样化的数据训练 AI,并可能教导它优化量子算法的其他部分,而不仅仅是调校旋钮。
总结:研究人员构建了一个智能助手,它从小型的试运行中学习,以帮助调校嘈杂的量子计算机以应对更大、更困难的问题。它在最困难的问题上取得了一点成效,证明了该概念是可靠的,但该助手仍需更多训练,才能在所有类型的量子“山脉”上真正可靠。
Each language version is independently generated for its own context, not a direct translation.
以下是 Bensoussan 等人所著论文《利用机器学习加速量子本征求解器算法》的详细技术总结。
1. 问题陈述
本文探讨了在含噪声中等规模量子(NISQ)设备上优化变分量子算法(VQAs)及其他量子本征求解器所面临的挑战。具体而言,作者聚焦于量子算法重大挑战(QAGC2024),该挑战要求参赛者在严格约束(有限的采样次数、超时限制及输入数据)下,利用 28 量子比特系统寻找一维轨道旋转费米 - 哈伯德模型哈密顿量的基态能量。
核心问题:
- 超参数敏感性: 诸如 ADAPT-QSCI 和 QCELS 等量子算法高度依赖超参数(例如采样次数、截断阈值、迭代限制)。参数调优不当会导致精度次优或运行时间过长。
- 可扩展性: 由于量子模拟的高昂成本,传统的超参数调优方法(如网格搜索)对于大型系统(20 个以上量子比特)在计算上是不可行的。
- 泛化能力: 目前尚不清楚为小型系统(例如 16 个量子比特)优化的超参数是否能有效扩展到更大、更复杂的系统(28 个量子比特)。
2. 方法论
作者提出了AccelerQ,这是一个将机器学习(ML)与基于搜索的软件工程相结合以自动化超参数优化的框架。该方法遵循“小系统训练,大系统预测”的范式。
A. 数据生成与增强
- 来源: 数据是使用状态向量模拟器在经典计算机上生成的,涵盖4 到 16 个量子比特的系统。
- 特征(输入): 哈密顿量的压缩表示(截断以去除可忽略项)、系统规模(量子比特数量)以及随机超参数向量。
- 标签(目标): 生成的基态能量(成本函数值)。
- 增强: 为克服数据稀缺问题,作者利用随机超参数生成和经典模拟,创建了约 4,760 条 ADAPT-QSCI 训练记录和约 14,510 条 QCELS 训练记录的数据集。
B. 机器学习模型
- 算法: XGBoost(极端梯度提升)回归器。
- 作用: 该模型充当代理适应度函数。XGBoost 模型根据哈密顿量和超参数预测预期的能级(成本),从而避免为每个超参数候选项运行昂贵的量子模拟。
- 训练: 模型在≤ 16 个量子比特的系统数据上进行训练。
C. 基于搜索的优化(AccelerQ)
- 流程:
- 为目标系统(例如 28 个量子比特)生成一组随机超参数向量种群。
- 使用训练好的 XGBoost 模型预测每个向量的能量得分。
- 应用**遗传算法(GA)**方法:选择表现最佳的向量,应用交叉(取平均值、极值)和变异以生成新候选项。
- 迭代直至收敛,以找到“最优”超参数集。
- 执行: 将最终优化的超参数应用于在模拟器上运行的实际量子算法(ADAPT-QSCI 或 QCELS),以验证基态能量。
D. 评估的算法
- ADAPT-QSCI: 一种自适应算法,选择泡利算符来构建输入态,并在经典计算机上执行组态相互作用。
- QCELS(量子复指数最小二乘法): 利用时间演化酉算子和哈达玛测试来拟合复指数,避免了 VQE 的 barren plateau( barren 平台)问题。
3. 主要贡献
- AccelerQ 框架: 一种新颖的原型工具,通过在较小系统上训练的 ML 代理将超参数优化与量子执行循环解耦。
- 跨算法适用性: 证明了基于搜索的 ML 方法并非特定于某一种算法,而是可应用于 ADAPT-QSCI 和 QCELS 两者。
- 以哈密顿量为中心的分析: 强调了 ML 预测的成功很大程度上取决于哈密顿量的特性(例如项数、稀疏性),而不仅仅是算法类型。
- 开源发布: 通过 Zenodo 和 GitHub 提供代码、训练数据、模型和结果,以促进可重复性。
4. 结果
评估在 16 个系统(20、24 和 28 个量子比特)上进行,使用了挑战哈密顿量和开源分子哈密顿量。
在挑战哈密顿量上的表现(28 量子比特):
- 精度: 与默认设置相比,ML 优化的 ADAPT-QSCI 在 28 量子比特系统上实现了0.12% 的误差降低。
- 效率: 优化后的设置所需的迭代次数显著减少(平均 37 次对比默认值的 61 次),表明收敛速度可能有所提升。
- QCELS: 结果喜忧参半;虽然它在特定的 20 量子比特系统上取得了最低误差(0.83%),但由于时间演化数据中的阻尼效应导致拟合误差,它在 28 量子比特模拟中表现挣扎。
在开源分子哈密顿量上的表现:
- 性能下降: 对于这些系统,优化的超参数通常表现不如默认设置。
- 原因: 作者将此归因于领域偏移。开源分子哈密顿量的项数显著较少(平均 48 项),而挑战哈密顿量则较多(平均 200+ 项)。ML 模型是在以挑战数据结构为主的混合数据上训练的,未能泛化到分子系统的稀疏特性。
可扩展性(RQ2):
- 模型的可扩展性有限。虽然它们改善了具有与训练数据相似哈密顿量特性的系统的性能,但未能泛化到具有不同结构特性(例如项密度)的系统。
5. 意义与未来工作
- 混合量子 - 经典范式: 本文强化了利用经典 ML 优化量子工作流的可行性,将量子设备保留为核心,同时将“调优”负担卸载给经典处理器。
- 已识别的局限性:
- 数据表示: 为 ML 输入而压缩哈密顿量可能会丢失跨不同系统类型泛化所需的临界物理细微差别。
- 模拟器伪影: QCELS 在 28 量子比特上的失败部分归因于模拟器限制(矩阵乘积态截断误差),而非算法本身。
- 未来方向:
- 细化训练数据选择,以确保更好地覆盖哈密顿量特性(例如项密度、稀疏性)。
- 扩展框架以优化超参数之外的其他子程序(例如 ansatz 结构、测量策略)。
- 研究自定义损失函数和特征加权以提高模型鲁棒性。
结论
本文成功证明了机器学习可以通过预测最优超参数来加速量子本征求解器,在特定问题类别(费米 - 哈伯德模型)中产生了可测量的精度和迭代次数改进。然而,该研究也起到了警示作用:泛化并非 guaranteed(保证)。ML 方法的有效性紧密耦合于训练数据的哈密顿量特性与目标系统之间的相似性,这表明未来的工作必须专注于特征工程和数据多样性,而不仅仅是模型复杂度。