谷歌推出新型72量子比特处理器,意图实现量子霸权

  近日,谷歌在洛杉矶举办的美国物理学会年度会议上推出了他们的 72-qubit 超导量子处理器 Bristlecone。本文介绍了他们的成果、近期目标和未来展望。

  谷歌量子 AI 实验室的目标是构建一个可以解决实际问题的量子计算机,其策略是使用与大规模通用纠错量子计算机向前兼容的系统探索近期应用。为了使量子处理器可运行超出经典模拟能力之外的算法,仅有大量的量子比特是不够的。关键的是,处理器在读出和逻辑运算时也必须具备低错误率,比如单比特量子门和两比特量子门。

  谷歌量子 AI 实验室:https://research.google.com/pubs/QuantumAI.html

  今天,谷歌在洛杉矶举办的美国物理学会年度会议上推出了他们的量子处理器 Bristlecone,这一基于门的超导系统的目的是为研究系统错误率和量子比特技术的可扩展性以及量子模拟、优化和机器学习应用提供一个测试平台。

  谷歌最新的量子处理器 Bristlecone(左)。设备示意图(右):每个「X」代表一个带有最近邻连接的量子比特。

  该处理器的指导设计原则是保留谷歌先前 9 个量子比特线性阵列技术的物理学基础,展示其最佳结果:读出错误率 1%、单量子比特门错误率 0.1%,以及最为重要的两比特量子门错误率 0.6%。该处理器使用了相同的耦合、控制和读出方案,但已扩展至 72 个量子比特的矩形阵列。之所以选择这一规模的处理器是为了在未来实现「量子霸权」,使用表面代码探索一阶和二阶纠错,并推动量子算法在实际硬件上的部署。

  图中展示了错误率上限和量子比特数之间的关系。谷歌量子 AI 实验室的研究方向如图中红线所示,实现近期应用目标,并最终建立实用的纠错量子计算机。

  在探索具体的应用之前,量化量子处理器的功能很重要。谷歌的理论团队为这项任务开发了基准测试工具。通过应用随机量子电路到设备上并检查采样的输出分布,与经典模拟进行对比,可以确定单个系统的误差。如果量子处理器有足够低的误差,它可以在定义明确的计算机科学问题上超越经典超级计算机,即实现「量子霸权」。这些量子电路无论是量子比特数还是计算长度(深度)都必须足够大。虽然还没有人达到这个目标,谷歌通过计算确定了一个标准,49 个量子比特、超过 40 的电路深度和低于 0.5% 的两比特量子门错误率就可以构建实现「量子霸权」的量子计算机。谷歌表示量子处理器超越超级计算机的实验证明将是该领域的分水岭,这也一直是其主要目标之一。

  谷歌量子 AI 实验室(圣芭芭拉)的研究科学家 Marissa Giustina 正在安装一个 Bristlecone 芯片。

  谷歌近期的目标是在 Bristlecone 的 72 量子比特上实现近似 9 量子比特设备的最佳错误率。他们相信 Bristlecone 将作为建立更大规模量子计算机的引人入胜的原理验证。在低系统误差下操作 Bristlecone 这样的设备,需要从软件、电子控制设备到处理器本身的完整技术堆栈的互相协调。实现真正的工作需要系统工程的多次迭代。

  谷歌乐观地认为 Bristlecone 可以实现「量子霸权」,他们期望在未来继续共享研究成果,与合作者一起运行实验。

稿源:机器之心

0

付费内容

查看我的付费内容