谷歌实现量子计算纠错重大突破!成果登上Nature 号称第二大里程碑
量子计算领域的新里程碑,来了!
谷歌科学家证明,通过增加量子比特的数量,就能降低量子计算的错误率。
研究成果登上最新一期《Nature》。
结果显示,在72个量子位的超导量子处理器上:
distance-5逻辑量子位(基于49个物理量子比特),每周期的逻辑错误为2.914%。distance-3逻辑量子位(基于17个物理量子比特),每周期的逻辑错误为3.028%。
可以发现前者的量子比特多了,但是错误率却降低了。
要知道,量子计算纠错是量子计算发展的关键一步。过去提出的理论方案中,需要引入更多量子比特,这会导致量子计算出错的源头增多。
谷歌量子计算部门负责人表示,尽管他们的方法只能将错误率降低一点,但这意味着谷歌已经突破了“平衡点”。
我们需要让它降更多。
抑制量子误差
量子计算机一直被视为可以解决普通计算机所无法胜任的超大规模计算,如将大量整数分解为质数、模拟复杂化学反应等。
但是和普通计算机一样,量子计算机很容易出现底层物理系统“噪声”引起的错误。
对于普通计算机,通过比特(可以表示0或1)来存储信息,并将部分信息复制到冗余的“纠错”比特上。当出现错误时,比如杂散电子穿过了绝缘屏障,或者宇宙射线干扰了电路,芯片就能自动发现问题并修复。
但是,量子计算机是在量子比特上运算,量子比特可以被设置为0、1,或者同时设置为0和1的任意混合,比如30%的0和70%的1。
这意味着量子比特不能被读出,否则它的量子状态将会丢失。由此,量子计算机不能像普通计算机那样,简单地将部分信息复制到冗余量子比特上。
理论物理学家们提出了一种解决办法:量子误差纠正。
逻辑量子比特由此而来。它是由物理量子比特组成的集合,它们共同工作以执行计算。
然后机器就可以使用一些物理量子比特来检查逻辑量子比特的情况,并纠正错误。
物理量子比特越多,就能越好地抑制错误。
(量子比特有许多物理实现,在传统计算机使用硅基芯片的地方,量子比特可以由捕获的离子、光子、人造原子或真实原子、准粒子组成)
但量子比特是量子计算出错的源头,增加更多量子比特,意味着出现错误的可能也会增加。
因此必须要将出错的“密度”降低。
谷歌研究人员提出了一种具有超导量子比特的表面码。
表面码是一组量子纠错码。它将逻辑量子比特编码为物理量子比特的d × d平方的联合纠缠态,称为数据量子比特。
逻辑量子位状态由一对反交换逻辑可观测量X?和Z?定义,如下图a表示,是一个72量子比特的Sycamore量子计算机原理图。
其中嵌入了distance-5的表面编码,由25个数据量子比特(黄色)和24个测量量子比特(蓝色)组成。
每个测量量子比特和一个稳定器(stabilizer,蓝色方块)相关联,逻辑运算符Z?和X?遍历数组,在左下角的数据量子比特相交。
右上角的红色框的象限,是4个distance-3表面码的子集之一,这是和distance-5表面码作比较的对照。
为了检测错误,会周期性地测量相邻数据量子比特簇的X和Z奇偶校验。
如图b所示,每个测量量子比特都和相邻的数据量子比特相互作用,将联合数据量子位奇偶校验映射到测量量子位状态,然后测量量子位状态。
每个奇偶校验量或稳定器,都与编码的量子比特的逻辑观测值以及其他稳定器交换。
因此,可以在奇偶校验测量发生意外变化时检测到错误,并不会干扰逻辑量子比特的状态。
通过如上方法,谷歌研究人员建造了一个72个量子比特的超导量子处理器,用两种不同的表面码做了测试。
结果表明,较大表面码能展现出个更好的逻辑量子比特性能,即错误率更低。如下红蓝线对比:
量子计算到哪一步了?
这一成就也被谷歌视为实现量子优越后的又一重大突破。
按照谷歌自己的“六步走”规划,实现量子优势是第一步,降低量子计算错误率是第二步,最终要实现建造一台由100万个物理量子比特组成的量子计算机,能编码1000个逻辑量子比特。
他们表示,等到这一步实现,量子计算的商业价值也就能实现了。
除此之外,他们还表示超导量子比特只是构建量子计算机的几种方法之一,但这种方法最有可能成功。但如果发现了新方法更有效,他们会马上调整方向。
我国对于量子计算的发展步骤也提出了明确的规划。
中科院院士潘建伟提出,量子计算分为三个发展阶段:
实现量子计算优越实现专用的量子模拟机,可应用于组合优化量子化学、机器学习等特定问题在实现量子纠错的基础上,构建可编程通用量子计算机
目前,中美加已实现了量子计算优越。
达到专用的量子计算模拟机,潘院士估计还需5-10年,是当前学术界的主要研究任务。
论文地址:https://www.nature.com/articles/s41586-022-05434-1
参考链接:https://www.nature.com/articles/d41586-023-00536-w