Uhlmann's theorem for measured divergences
本文将量子信息理论中的乌尔曼定理推广至广泛的测量-散度(包括所有的测量-Rényi散度),揭示了测量-散度与大多数其他量子散度(如Petz和夹心Rényi散度)在数学结构上的根本区别。
1876 篇论文
本文将量子信息理论中的乌尔曼定理推广至广泛的测量-散度(包括所有的测量-Rényi散度),揭示了测量-散度与大多数其他量子散度(如Petz和夹心Rényi散度)在数学结构上的根本区别。
该论文提出了一种利用量子纠缠和高纯度来检测量子实验中系统误差的直接高效方法,并通过半导体量子点发射光子对的量子态层析实验验证了其可扩展性。
本文研究表明,在噪声与信号不可区分导致无法构建无偏估计器的场景下,虚拟纯化(VP)比量子纠错(QEC)更能有效抑制偏差并提升量子计量精度,从而为应对此类挑战提供了更稳健的替代方案。
本文建立了多参数量子估计中无偏估计的充要条件,并展示了该框架在未知噪声下的相位估计及量子通道参数可学习性分析中的关键应用。
本文研究了利用只能区分有无光子的多路复用探测器阵列进行非完备测量时,通过线性规划确定光子数分布、宇称及平均光子数等物理量概率上下界的理论极限,并为实现特定精度所需的探测通道数量提供了定量指导。
该研究通过数值模拟发现,在一维非相互作用费米子系统中,单次粒子数测量对纠缠熵变化的概率分布受监测强度、测量协议及空间位置(特别是子系统边界)的显著影响,呈现出从弱监测下的高斯分布向强监测下受量子芝诺效应主导的对称或非对称指数拖尾分布演变的特征。
该论文提出了一种由非晶格陷阱中的周期性微扰诱导的二维莫尔时间晶体理论模型,揭示了其在时空及时空混合域中涌现的区域超流态与莫尔尺度量子相干性,为无需扭曲多层晶格即可构建空间莫尔相提供了新途径。
该论文研究了波导量子电动力学中原子镜构成的可调腔内二能级测试原子的非马尔可夫自发辐射动力学,揭示了从单模到多模强耦合的交叉机制,阐明了原子阵列参数对系统的影响及时间延迟反馈对耦合增强的限制,并证明了可用少数模式有效近似该非马尔可夫系统动力学。
本文提出了一种基于精确计算各目标方差的标准化方法,通过将多目标 QUBO 问题中的各个目标缩放至单位方差,解决了因尺度差异导致的权重选择难题,从而在等权重标量化下获得更均衡的解并辅助权重搜索。
该论文确立了自主量子纠错在特定条件下恢复量子计量海森堡极限的充分条件,证明了当噪声算符与信号哈密顿量对易且特定线性方程有解时,无需辅助量子比特的方案即可在有限纠错速率下长时间保持高精度,并通过相位估计实例验证了该理论。
本文研究了量子 Fisher 信息与纠缠曲率(即并发度对耦合常数二阶导数的负值)之间的关系,发现在特定初始条件下,当并发度达到最大值时两者相等,且此时简单的乘积测量即可饱和量子 Cramér-Rao 界,从而赋予了这些时刻重要的操作意义。
该论文指出,在纯规范理论中,胶子极化纠缠的产生具有普适性,其程度独立于规范群(即与颜色自由度无关),且仅在初始态极化相反及特定散射角下达到最大,这一发现暗示了相互作用可能源于量子本质的“从比特到物理”原理。
本文通过推广双势阱模型引入耦合瞬子,详细研究了具有三个不同作用量瞬子类型的四势阱系统,利用微扰论、法捷耶夫 - 波波夫程序及扩展的稀薄气体近似计算了能级分裂,并将其应用于一维复合粒子的隧穿问题。
该论文通过理论研究发现,在锗基量子点中,三空穴量子比特编码在准圆形几何构型下,其拉比频率可比单空穴量子比特提升两个数量级,且品质因子也显著更优,从而证明了其在应变和非应变系统中均具备与单空穴量子比特相媲美的性能。
本文利用随机采样模拟实验相关的激光相位噪声,研究了其对一维里德堡自旋哈密顿量中绝热态制备的影响,发现特定绝热过程中噪声效应可近似表现为对关联函数的热化。
本文提出并数值研究了多种具有两体相互作用的 SYK 模型变体(包括基于 SU() 生成元的自旋模型及特定结构的修改模型),发现它们虽简化了相互作用阶数,却仍展现出与原始四体模型相似的强量子混沌特征,从而为在实验室中利用量子设备模拟 SYK 模型提供了更可行的新途径。
该论文通过显式分解 XY 混合器拓扑的动力学李代数,揭示了不同拓扑结构对 QAOA 可训练性的影响,并提出了一种通过在多项式规模李代数上预训练来“热启动”指数规模优化问题的方法,从而显著提升了约束优化任务的收敛速度与解的质量。
该研究建立了激光干涉仪输出信号与不同时空涨落模型之间的对应关系,指出实验室尺度仪器能更全面地观测各类涨落特征以揭示其本质,而 LIGO 则更擅长探测时空涨落的有无。
本文提出了一种利用强相互作用里德堡介质中的非局域非线性特性,在电磁感应透明条件下实现对光子自旋霍尔效应动态增强与可调谐控制的理论方案,为光子信息处理和精密传感提供了新的技术途径。
本文提出了一种混合量子 - 经典算法,通过随机时间演化构建平均混合态并进行虚拟纯化,仅需单份量子态即可指数级抑制算法误差,从而高效估算具有主导重叠的任意本征态中的可观测量期望值。