量子计算领域长期面临量子纠错难题,这一难题阻碍着创造颠覆性量子计算机的进程。哈佛大学研究人员周一在《自然》杂志发表论文,展示了一种新系统,该系统能检测和消除低于关键性能阈值的错误,为解决量子纠错问题提供可行方案。

论文资深作者米哈伊尔·卢金称:“我们首次将可扩展、纠错量子计算的所有必要元素整合到一个集成架构中,这些实验为实际大规模量子计算奠定科学基础。”新论文中,团队展示的“容错”系统使用448个原子量子比特,运用物理纠缠、逻辑纠缠、逻辑魔法和熵消除等复杂技术检测和纠正错误,还运用了“量子隐形传态”技巧。论文第一作者多列夫·布鲁夫斯坦表示,虽实现超大规模计算机有诸多技术挑战,但首次拥有概念上可扩展的架构,构建容错量子计算机越来越可行。
这项由哈佛大学牵头,麻省理工学院等参与的合作项目,汇集了众多研究人员。新论文代表了量子纠错领域三十年来重要进展。传统计算机用二进制代码编码信息,量子计算机将信息存储在亚原子粒子中,处理能力远超传统计算机。量子比特易脱离量子态丢失信息,纠错是大型量子计算机核心前提。此次研究团队构建复杂电路,将误差抑制到临界阈值以下。主要作者之一亚历山德拉·盖姆称,关注理解实现可扩展深度电路计算的核心机制,以降低开销、更快达到实用状态。卢金表示,多年实验克服部分技术难题,通过实验能看到曙光。
世界各地研究人员正研究各种潜在量子比特平台,哈佛大学团队专门研究铷元素中性原子,利用激光编码使其成为量子比特。谷歌量子人工智能团队工程副总裁哈特穆特·内文称,该论文发表正值量子比特平台竞争之际,标志取得重大进展。卢金认为,构建量子计算机核心要素正逐步到位。
更多信息: Dolev Bluvstein 等人,《用于通用量子计算的容错中性原子架构》,《自然》(2025)。期刊信息: 《自然》














京公网安备 11010802043282号