Exploration of Evolving Quantum Key Distribution Network Architecture Using Model-Based Systems Engineering
该论文利用正交变异性建模和系统建模语言,提出了一种面向利益相关者需求的变异性驱动框架,以系统性地建模和演化量子密钥分发网络架构,从而推动量子系统工程的发展。
60 篇论文
该论文利用正交变异性建模和系统建模语言,提出了一种面向利益相关者需求的变异性驱动框架,以系统性地建模和演化量子密钥分发网络架构,从而推动量子系统工程的发展。
该研究提出了一种基于外部视觉观察和计算机视觉技术(如 YOLO 目标检测与车道监测)的新型驾驶员行为分类系统,旨在无需车载通信即可实时识别分心或受 impaired 驾驶等不安全行为,从而提升自动驾驶环境下的道路安全。
该研究通过对比软件模拟的随机伊辛机(sIM)与标准 Metropolis-Hastings 算法在神经网络量子态模拟中的采样效率,发现尽管 sIM 的自相关时间较长,但其硬件的大规模并行特性仍有望为复杂量子系统的模拟带来 100 至 10000 倍的加速优势。
本文基于康德的概念知识理论构建了一个可执行的认知系统,通过其学习、情感与信息操纵等计算机制,系统地解释了包括知觉辨别、信息整合、注意力及睡眠差异在内的意识“简单问题”。
本文提出了一种新型 qutrit 量子纠错码,利用对称 T 深度电路分解与 CSS 码的对应关系,实现了逻辑 AND 门的横截操作,并进一步构建了混合 qubit-qutrit 编码方案以支持高效计算模拟与魔态蒸馏。
该论文通过实验证明,尽管电磁屏蔽能有效抑制辐射发射,但主动射频探测仍可利用阻抗调制背散射在屏蔽频带外观察到与执行状态相关的特征,从而揭示屏蔽系统下的硬件侧信道泄漏风险。
本文提出了一种基于模拟滤波和包络检测的“光谱动力学储层计算”(SDRC)框架,利用材料响应的快速光谱动力学,在仅需 56 个节点且硬件开销极低的情况下,实现了高速、高性能的类脑计算,并在奇偶校验、非线性自回归移动平均及语音识别等任务中取得了优异表现。
本文针对经典高性能计算与量子计算融合背景下日益严峻的可重复性危机,指出传统框架的不足,并提出通过构建记录过程抽象与实现上下文的“以工作流为中心”的科学实践新范式,来适应日益复杂的计算环境并夯实科学知识的可靠性基础。
该研究提出了一种基于可编程约瑟夫森结的漏积分发放神经元,通过将体与突触参数编码于偏置电流中实现了原位存储、双时间尺度可塑性及高达 45 GHz 的超快低功耗运行,从而构建了融合计算、存储与可塑性的超高效神经形态计算单元。
本文提出了一种改进的约束超立方混合器方法,通过优化电路结构减少门数量并提升抗噪性,从而显著增强了量子近似优化算法(QAOA)在含噪中等规模量子(NISQ)时代解决约束组合优化问题的性能。
该研究通过数值模拟表明,尽管光学伊辛机通常受限于调制器的低分辨率,但 8 位分辨率已能满足不同规模基准问题的需求,而令人意外的是,使用 1 位分辨率调制器反而能显著提升机器在所有基准问题上的性能。
本文提出了一种自适应量化行星陨石坑检测系统(AQ-PCDSys),通过结合量化感知训练、自适应多传感器融合及多尺度检测头架构,旨在解决自主深空探测中受限于星载硬件资源而难以部署高精度深度学习模型的瓶颈问题。
本文探讨了利用多体纠缠资源(如 GHZ 态)实现分布式扇出操作,并结合四维量子位(qudits)来高效执行在分布式量子计算中极具挑战性的全局门(如全局 Mølmer-Sørensen 门),从而为量子电路编译和量子数据中心设计提供新思路。
该研究通过结合前向 - 前向(Forward-Forward)类训练算法与亚 1V 复位单脉冲更新策略,在标准 HfOx/Ti 忆阻器阵列上成功实现了兼具高能效、长时稳定性(月级)且精度媲美反向传播的片上学习,为边缘智能的自适应发展提供了实用路径。
该论文通过引入硬件原生的多态概率单元(p-dits)和平均场约束(MFC)混合方案,有效消除了约束优化问题中的稠密耦合,显著提升了基于 FPGA 的 Potts 机器在解决 NP 难问题时的可扩展性与计算效率。
本文提出了“人类认证模块仓库”(HCMR)这一新型架构模型,旨在通过融合人工监督与自动化分析来认证和治理软件模块,从而在 AI 辅助开发时代构建可信赖、可审计且安全的软件系统。
本文提出了一种融合众包平台、专家交互建模、鲁棒聚合技术及大语言模型模拟的新范式,旨在通过整合人类专家与大模型碎片化的因果知识,解决从观测数据中学习有向无环图(DAG)的难题,从而实现单一智能体无法达成的全局因果结构发现。
该论文提出了一种基于优化进化算法的联合硬件 - 工作负载协同优化框架,旨在设计能够高效支持多种神经网络工作负载的通用存内计算加速器,从而在 RRAM 和 SRAM 架构上显著缩小了通用设计与专用设计之间的性能差距,并实现了高达 95.5% 的能效延迟面积积(EDAP)降低。
本文提出了一种基于 STIM 的模拟框架,界定了表面码中可接受缺陷的边界(BADs),证明在特定条件下即使存在高误差率或噪声非均匀性的“缺陷”量子比特,只要距离足够且位置得当,仍可保留在逻辑计算中而不显著影响整体性能,从而将缺陷容忍度从“全有或全无”重新定义为一种连续谱。
本文提出了一种通过融合前向和后向路径中的量子门来加速量子机器学习经典模拟的方法,显著提高了吞吐量并降低了内存消耗,使得在消费级 GPU 上训练大规模量子模型成为可能。