量子计算战争:一场国家实力和技术路线的双重对抗

日期:08-02
量子计算超级计算机处理器

量子计算战争:一场国家实力和技术路线的双重对抗

作者/吴优

编辑/李帅飞

雷锋网按:在人类计算技术的飞速发展中,量子计算越来越受到重视。实际上,它不仅仅是相关企业保持其核心竞争力和前沿技术能力的重要领域,也是国家之间相互竞争的重要科技领地;目前在这个领域已经出现了不少选手,它们都实力强劲,且选择了不同的技术路线,形成了蔚为大观的"量子计算战争"。围绕这一话题,外媒作者 MARK LAPEDUS进行了全面而深入的解读,雷锋网对本文进行了不改变原意的编译。

量子计算正在升温,越来越多的企业竞相对量子计算技术进行基准测试、巩固,意在将其商业化。

截至 2021年 7月,一个来自中国的团队在原始性能方面似乎已经处于领先地位,谷歌、IBM、英特尔和其他量子计算机开发商也不甘落后,且已经研发出第一波量子计算机。

不过,所有这些都可能在一夜之间改变,这些系统仍处于发展初期,尚未运行任何有用的商业应用——宣布量子计算的赢家,还为时过早。

了不起的量子计算

到目前为止,量子计算确实取得了显著进展,并同超级计算机区分开来。

在经典计算中,信息以位存储,可以是“0”或“1”。在量子计算中,信息存储在量子位或量子比特(Quantum bits, or Qubits)中,可以以“0”或“1”或两者的组合形式存在,叠加态使量子计算机能够一次执行多项计算,使其性能优于传统系统。

不过这项技术面临着许多挑战,许多行业专家认为:这些系统距离实用还有十年的时间。

然而,这并没有让公司、政府、研发组织和大学放弃相关技术的研发,它们依旧向这个领域投入数十亿美元。如果这些技术得以实现,可以加速新化学、药物和材料的开发,还可以破解任何加密系统,能够为公司和国家提供竞争优势。

因此,研发量子计算技术成为许多国家科技发展的重中之重。

“量子计算处于国家计划的前沿,” FormFactor高级副总裁 Amy Leong说。“这一领域已经宣布了超过 200亿美元的投资,涉及 15个国家或地区。像美国和中国这样的地缘政治强国,肯定在争夺量子霸权的竞赛中处于领先地位,其次是来自欧洲和亚洲的许多其他国家。”

中国科学技术大学(USTC)于 2021年 6月取得了重大进展,展示了研究人员声称的世界上最快的量子计算处理器,超过了自 2019年以来谷歌 53量子位设备保持的非官方记录。中国科技大学的 66-量子位处理器在 1.2小时内完成了一项复杂的计算——如果采用如今的超级计算机,这项计算需要 8年才能完成。

“当我查看第一批应用时,我意识到我们需要数千个甚至十万个量子位来做一些有用的事情。”英特尔量子硬件总监詹姆斯克拉克(James Clarke)说:“我们今天达到了 50到 60个量子位,还需要更多时间才能达到 100万个量子比特——而这对于密码学来说,是非常必要的。”

与此同时,量子技术还有多个分支阵营。

实际上,厂商们正在开发基于一系列技术的十几种量子位,例如超导(Superconducting qubits)、离子阱(Ion traps)和硅自旋(Silicon qubits),每个阵营的厂商都声称它们的技术是卓越的,并将实现实用的量子计算机。

根据 Hyperion Research的数据,量子计算机的市场预计将从 2020年的 3.2亿美元增长到 2024年的 8.3亿美元。

超越经典计算但无法替代

从历史的发展进程来看,计算领域取得了巨大进步。

1945年,宾夕法尼亚大学开发出第一台通用电子数字计算机 ENIAC,它使用真空管控制电子来处理数据,每秒可执行 5000次加法计算。

1947年,晶体管的出现改变了一切;从 20世纪 50年代开始,晶体管取代了许多系统中的真空管,计算机速度更快。

1964年,现已解散的 Control Data公司推出了 CDC 6600,这是世界上第一台超级计算机——CDC 6600以晶体管为基础,集成了一个具有 2 MIPS( Million Instructions Per Second)性能的 60位处理器。

发展到今天,智能手机比早期的计算机更快。以 iPhone 12为例,它采用了基于台积电 5nm工艺的 A14处理器,A14包含 118亿个晶体管,具有 6核 CPU和 16核神经引擎,每秒可进行 11万亿次操作。

在高性能计算方面,来自日本的富岳(Fugaku)超级计算机在 2021年保持了其作为世界上最快超级计算机的地位。富岳由日本理化研究所(Riken)和日本信息通信技术企业富士通(Fujitsu)构建,它采用基于 Arm架构的 A64FX处理器,拥有 7630848个内核,可实现每秒 442 petaflops(petaflop即每秒执行 1千万亿次浮点运算)的性能。

目前,富岳正处于运行状态,并被用于各种研究项目。“富岳首次使用了在大型服务器的通用 CPU中所应用的技术,例如 7nm工艺技术、封装集成 HBM2、TB级流媒体功能和片上嵌入式高性能网络,”Riken计算科学中心主任 Satoshi Matsuoka在 2021年 VLSI技术和电路研讨会上的一篇论文中写道。

“我们已经进入千万亿次浮点运算的时代,”美国光刻工具公司 D2S首席执行官 Aki Fujimura说。“全球有许多研究计算机正在接近百亿亿次计算(1000 petaflops)。十年之后,我们将拥有许多百亿亿浮点运算级别的计算机。”

事实上,业界需要更多的计算能力来解决生物技术、国防、材料科学、医学、物理学和天气预报方面当前和未来的问题。

“我们需要以相同的价格提供更强的计算能力,需要解决的问题越来越难,我们在服务上面临的问题也越来越多,” Fujimura说。

当然,在传统计算持续进步的同时,业界也积极发展量子计算——理论上,这些基于量子计算的新系统有望超越当今的超级计算机,从而加速新技术的发展。

在遥远的未来,量子计算机有望在合理的时间内破解世界上最复杂的算法,包括 Shor这一用于整数分解问题的算法,以及可用于破解广泛使用的公钥加密方案 RSA。

量子计算最早诞生于 1980年代,多年来取得了一些重大进展:最近,有两个系统实现了“量子霸权”,这意味着量子计算机可以做经典计算机不能做的一些事情。

尽管如此,量子计算仍处于起步阶段,一方面量子计算系统在不断进化,另一方面,人们也在不断寻求利用量子计算系统找到对应的应用领域。IBM量子硬件系统开发总监 Jerry Chow说:

当今存在的所有系统主要用于探索未来的量子应用,包括用于量子化学的变分量子算法,以及用于机器学习的量子核估计方法。从基准测试和自身性能表征的角度来看,今天部署的系统也很有趣,并且能够理解潜在的噪声源,以改进这些系统的未来迭代。另一方面是探索量子纠错的概念。

不过值得注意的是,即使量子计算机释放了潜力,它们也不会取代今天的计算机。“对于某些类型的计算问题,量子计算显然是一项重要的未来技术。素数分解是众所周知的另一项量子计算远优于经典计算的运算,”D2S的 Fujimura说。“在某种程度上,量子计算是经典计算的增强版。在更大范围内,量子计算不会取代经典计算,经典计算更适合我们需要计算的许多任务。”

今天的量子计算机与众不同,类似于巨大的枝形吊灯;这些系统安装在稀释冰箱中,能够保护处理器和其他部件免受外部噪音和热量的影响。该装置将设备冷却到 10至 15毫开尔文之间。

IBM的 Quantum System One系列量子计算机,图片源自 IBM

IBM的 Quantum System One系列量子计算机,图片源自 IBM

量子处理器就是一个量子系统,该处理器包含一些量子位。这些量子位有两种配置,一个量子位门和两个量子位门。假设有一个具有 16个量子位的量子处理器,量子位排列在二维 4 X 4阵列中。前三行(从上到下)可能由一个量子位门组成,最后一行可能有两个量子位门。

在经典计算中,将一个数字输入计算机,经过计算函数就会有一个数字输出。但在量子计算机中,处理功能十分复杂。

研究人员在英特尔实验室调整稀释冰箱,图片源自英特尔

研究人员在英特尔实验室调整稀释冰箱,图片源自英特尔

“如果你有'n'位,你就有 2的 n次方的数据量。这是数量呈指数级增长的状态,一次只能处理一个状态。因此,它是指数时间或空间指数,”麻省理工学院(MIT)教授威廉奥利弗在视频演示中解释道。“另一方面,量子计算机可以将这 2的 n次方个不同的组件同时放入一个叠加态。这就是我们在量子计算机中看到的指数级加速的基础。”

量子计算机还有其他优点。“为了使量子计算机的能力加倍,你只需要增加一个量子比特。它是指数级的。为了让量子计算机在摩尔定律方面跟上经典计算机,他们只需要每 24个月增加一个量子比特,”Moor Insights& Strategy的分析师 Paul Smith-Goodson说。

不过,上述情况都处于理想状态下;实际操作中,存在一些阻碍量子计算发挥其全部潜力的因素。

据 IBM称,由于噪声,量子比特通常会在 100微秒内失去其特性。这就是为什么量子比特必须在极冷的环境中运行。“量子比特对它们的环境非常敏感,”美国晶圆探针公司 FormFactor的 Leong说。“在非常寒冷或低温的环境中使量子比特环境安静是至关重要的。”

此外,噪声还会导致量子比特出错,正因如此,量子计算机需要纠错。

最重要的是,业界需要扩展具有数千个量子比特的量子计算机,目前的状态与这个数字相差甚远。

总而言之,量子计算需要一些突破。“对于整个领域,我们需要让量子比特比我们今天制造的更好,”英特尔的克拉克说。“对我来说,最大的挑战是如何连接它们。每个量子比特都需要自己的电线和控制箱。在 50或 60个量子比特状态下,有效控制较容易,但数量达到一百万个时,就不能很好地工作。”

制造高良率的量子比特也很关键,Onto Innovation和其他公司正在围绕该技术开发计量控制系统。

“现在,我们已经对一些晶圆或试样进行了测量,"Onto高级副总裁 Kevin Heidrich表示:“量子领域大多数基础技术背后的关键是利用为经典计算开发的制造技术。然而,许多人正在调整设备、设计和集成,以启用量子/量子位设备。我们的主要工作是使精确和特征化的设备能够实现各种形式的量子计算,例如光子或自旋量子位。我们的重点是提供计量解决方案,使我们的开发合作伙伴能够最好地描述其早期设备的特性,包括精确的侧壁控制、材料厚度和接口质量等。”

超导量子比特进展最大,中国科学技术大学领跑

根据《量子计算报告》(the Quantum Computing Report),如今有 98个单位在研究量子计算机或量子位,其中,企业正在开发的量子位类型包括离子阱(Ion trap)、中性原子(Neutral Atoms)、光子学( photonics)、硅自旋(Silicon Spin)、超导和拓扑( topological)。

值得一提的是,以上每种类型都有各自的优点和缺点,现在比较哪种技术更好,还为时过早。

“我们真的不知道哪种技术将成为构建大规模容错机器计划的正确技术。一些公司有五年路线图,可以让他们拥有足够的量子位来做一些真正有意义的事情。”来自分析机构 Moor Insights& Strategy的 Smith Goodson说:“在安装基数上,IBM拥有大量机器,它有超过 20台的量子计算机,且没有人能与之匹敌。它围绕着这些量子计算机建立了一个庞大的生态系统,很多大学与公司都与其进行合作。”

到目前为止,超导量子位取得的进展最大。在这一类别中,D-Wave公司通过使用量子退火(quantum annealing,一种解决优化问题的技术)获得了关注。例如,如果你遇到一个组合型问题,量子退火系统可以从众多组合中搜寻到最佳的那一个——目前这些能力已经在某种程度上得以证明。

大部分真正在量子计算机市场上活跃的,是超级计算量子比特。Google、IBM、Intel、MIT、Rigetti、USTC和许多其他公司都在这一领域开发产品。

超导量子位围绕约瑟夫森结( Josephson junction)构建,约瑟夫森结又被称为超导隧道结,通常是由两个超导体构成,被一个非常薄的非超导电层隔开,在操作中,电子会配对并穿过约瑟夫森结。

2014年,IBM展示了一个 3比特的设备;到今天,IBM出售的量子计算机已经达到 65比特。最新的量子计算报告显示,在超导领域 IBM的整体量子比特数仍处于行业领先地位。

而在非正式排名中,第一位由中国科学技术大学保持,有 66个量子比特;IBM紧随其后,拥有 65个量子位,其次是谷歌,拥有 53个量子位,英特尔(49)和 Rigetti(32)。

当然,量子比特数并不是构建量子计算机的唯一要素,还必须具有相对较长的相干时间(coherence times)和门控保真度(gate fidelities)。“量子比特和量子处理器是量子硬件的核心部分,”IBM的 Chow说。“要构建量子计算机或量子计算系统,我们不仅需要量子硬件,还需要控制电子设备、经典计算单元和运行量子计算程序的软件。”

在这方面,IBM提供了一种开源量子软件开发工具包 Qiskit。“我们的目标是让开发者社区广泛参与并建设量子生态系统,将量子计算机作为用户研究和业务的基本工具,”Chow说。

业界同样需要具有数千个量子位的系统,虽然厂商们在这方面还有很长的路要走,但这个结果是可期的。

2019年,谷歌的 53量子位处理器 Sycamore在 200秒内完成了一次计算任务。谷歌声称,一台超级计算机完成同样的任务需要大约 10000年的时间。

紧接着,2021年 6月,中国科技大学发表了一篇关于 66量子位超导量子处理器“祖冲之”的论文。在计算中,中国科技大学使用了 56个量子位,其执行任务的速度比谷歌的 53量子位处理器快 2到 3倍。

中国科技大学教授潘建伟在一篇论文中表示:“我们预计,这种大规模、高性能的量子处理器可以让我们在不久的将来能够在经典计算机之外寻求有价值的量子应用。”

这些来自中国和其他地方的结果有待进一步讨论。很多企业和机构不使用任何基准来报告他们的结果,包括能够表达量子计算机有效性的指标——量子体积。

“这一切都不仅仅取决于量子比特。我们不知道这些系统中有多少能正常工作,如果没有纠错功能以及没有明确的目标,你能添加你所用想要的量子比特,但它永远不会变得更强大,”来自 Moor Insights& Strategy的 Smith Goodson说。

除了中科大,超导量子比特在其他单位也得到发展:

Rigetti推出了多芯片量子处理器,预计今年年底实现 80量子位系统。

今年年底,IBM将发布 Eagle,一款 127量子比特的量子处理器。此外,IBM正在开发预计 2022年推出的 433量子位处理器,以及预计 2023年推出的 1121量子位设备。

谷歌找到了一种降低量子比特错误率的方法,它还计划到 2029年开发出 100万个量子位处理器。

离子阱量子比特领域,IonQ位居第一

离子阱量子位是另一种有前途的技术。

对于离子阱来说,离子(带电原子或分子)是量子处理器的核心。据该技术的开发商 IonQ称,这一技术用捕获的离子来充当纠缠的量子位,完成从初始准备到最终读出的所有工作。

根据量子计算报告,在离子阱中,IonQ以 32个量子比特领先,其次是 AQT(24)、霍尼韦尔(10)等。

在研发方面,桑迪亚国家实验室正在开发 QSCOUT,这是一种基于离子阱量子位的量子计算机测试平台。QSCOUT是一个 3量子比特系统。随着时间的推移,桑迪亚计划将该系统扩展到 32量子比特。

通过 QSCOUT,桑迪亚国家实验室为最终用户了提供一个开放访问计划。“用户不仅可以指定他们想要应用哪些门(每个电路由许多门组成)以及何时应用,而且他们还可以指定门本身是如何实现的,因为有很多方法可以实现相同的结果。这些工具使用户能够深入了解量子计算机在实践中的工作方式,以帮助我们找出构建更好计算机的最佳方法,”桑迪亚的物理学家兼 QSCOUT负责人苏珊·克拉克(Susan Clark)说。

“由于我们是一个测试平台系统,我们机器上运行的代码是由用户生成的,用户们对在量子计算机上运行的内容有很多想法,”克拉克说。“32量子比特仍然足够小,完全可以在经典计算机上进行模拟,所以构建较小系统的目的不是为了做经典计算机无法做的事情。”

克拉克提出了构建较小系统的两个重要原因:

研究如何将问题映射到量子计算机上,这是在未来更大的系统(量子化学、量子系统模拟)上实现最佳性能的最佳方式;

了解能够让量子计算机更好地运行的技术,以便应用于更大的机器。

与超导量子比特市场一样,离子阱也出现了一波热潮。例如,霍尼韦尔正在剥离其量子计算部门,并将与剑桥量子计算部门合并——霍尼韦尔还展示了实时纠正量子错误的能力。

与此同时,IonQ的客户可以通过谷歌的云服务购买其量子计算机的使用权。

英特尔的硅自旋量子,有望打造最小的量子芯片

硅自旋量子位也很有前途。

Leti、英特尔、Imec和其他公司正在研究这项技术,根据《量子计算报告》,英特尔以 26个量子位暂时领先。

“我们在这里做的是制造单电子晶体管,”英特尔的克拉克说。“我们正在制造一种晶体管,通道中只有一个电子。该单个电子可以向上旋转或向下旋转,向上和向下旋转分别代表'0'和'1'。”

关键是让电子进入叠加态。“当电子旋转一圈时,它就是一个量子位,”克拉克说。“如果你有两个彼此靠近的电子,或者其中两个自旋量子位,那么你就可以开始执行操作了,可以开始使用量子纠缠了。”

硅自旋量子位有一些优势。“英特尔的自旋量子位的体积比采用其他一些量子位技术小一百万倍,”克拉克说。“未来我们将需要 10万到 100万个量子位。当我设想未来的量子芯片会是什么样子时,它看起来会与我们的当下的处理器相似。”

此外,自旋量子位使用的一些工艺与工具与半导体晶圆厂中的相同,且这些过程不涉及前沿节点。“我们的很多创新更多地来自我们使用的材料,而不是图案化技术的能力,”克拉克说。

放置在铅笔橡皮擦尖端的自旋量子位芯片,图片源自Walden Kirsch/Intel

放置在铅笔橡皮擦尖端的自旋量子位芯片,图片源自Walden Kirsch/Intel

硅自旋量子位的市场也非常热闹:

英特尔推出了第二代低温控制芯片 Horse Ridge II。该设备将量子计算机操作的控制功能引入低温冰箱,可以简化量子系统控制布线的复杂性。

CEA-Leti开发了一种内插器,可以集成用于量子计算的设备,即内插器连接量子位和控制芯片。

Imec在 300毫米集成工艺中设计了具有可调耦合的均匀自旋量子位器件。

英特尔和 FormFactor分别开发了冷冻探测器,这些系统在低温下表征量子位。

写在后面

在上述量子位类型之外,还有更多的探索空间。

“在光学领域,人们正在使用光粒子,这看起来是一个很有前途的技术,”来自 Moor Insights& Strategy的 Smith-Goodson说。

目前尚不清楚随着时间的推移哪些技术会占上风,即便是光粒子也是如此。或许更大的问题在于,未来的量子计算是否真的会像如今媒体宣传里那样发挥作用。

不过值得注意的是,很多国家和公司都在这项技术上下了很大的赌注——至少目前,一切相关的动态都值得关注。

欧盟宣布深入调查Facebook收购客户关系管理企业Kustomer交易 芯片供应依然被“卡脖子”:华为用4G求生
相关阅读: