据《自然》杂志本周的一篇论文报道,谷歌 Quantum AI 的最新一代量子芯片演示了量子纠错功能,可将误差抑制在实现未来实际量子计算应用所需的临界阈值以下。如果扩展设备性能,可以满足大规模容错量子计算的操作要求。
量子计算有可能加快计算速度,并在某些任务中超越经典计算机的能力。然而,量子计算机容易出错,导致当前的原型无法运行足够长的时间来实现实际输出。
量子计算研究人员为解决这一问题而设计的策略依赖于量子纠错,其中信息分布在许多量子比特(量子信息单元,类似于经典计算机比特)上,从而可以在不损坏计算的情况下识别和补偿错误。量子纠错所需的量子比特开销可能会引入比纠正的误差更多的错误。
因此,实现“低于阈值”的操作已被证明是具有挑战性的,其中未校正的误差率低于纠错按预期工作并成倍抑制误差所需的临界值。
Hartmut Neven 及其同事提出了最新一代的超导量子处理芯片架构,称为 Willow,它能够在特定量子纠错方法(称为表面代码)的临界阈值以下进行量子纠错。他们的系统在几个小时内运行多达 100 万次循环,同时实时解码错误并保持其性能。
作者在 72 量子比特处理器和 105 量子比特处理器上执行表面代码。码距从 3 到 5 再到 7 每增加一次,逻辑错误率就会减半。作者总结道,这种对逻辑误差的指数抑制构成了运行具有纠错功能的大规模量子算法的基础。
更多信息:低于表面代码阈值的量子误差校正,Nature (2024)。DOI: 10.1038/s41586-024-08449-y
期刊信息: Nature