来源:《学术前沿》杂志2021年4月上(微信有删节)

作者:西安交通大学城市学院教授 李联宁

原文责编:桂琰

新媒体责编:李思琪

视觉:王洋

图片来源:网络

由于现有半导体微电子技术物理极限的原因,传统计算机的发展渐渐接近其极限,而具有强大并行处理能力的量子计算技术的发展随之成为现实需求。然而,通常外部环境会对量子计算的基本单位量子比特产生干扰,产生量子衰减而导致计算错误。面临上述技术难题,全球出现了基于超低温超导材料、离子阱技术、微电子制造技术和通过量子纠缠来获取信息的四种技术实现路径之争。

如何建造一台大型容错的通用量子计算机并将其应用于完成实际任务,同时带来收益,具有很大的技术挑战性与风险。西安交通大学城市学院李联宁教授认为,从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。当前,各经济发达国家对量子研究的投入持续增长,已开始进行国家层面的指数级投资。

量子计算机技术前沿

技术一,在极冷的环境下控制量子。只有在零场强和绝对零度的环境中,才有理想状态下的量子计算。但是由于这种温度环境需要消耗大量的资金和能源,这在一定程度上就阻碍了量子计算机小型通用化的技术进程。

技术二,采用“拓扑量子比特”进行计算。用拓扑量子比特进行计算,对于外界的干扰有极强的容错能力。这样一来,基于拓扑量子比特的计算机就可以在规模上很大,在能力上很强。这个技术一旦取得突破,长期困扰我们的诸多计算难题将迎刃而解。

技术三,使用量子退火原理寻找最优解。量子退火算法就是让大自然自己去选择最优的答案。目前商用量子计算机(其实是量子退火机)D-WaveTwo会对每次计算任务重复4000次,以便使得解趋向更加精确。

技术风险及需要克服的困难

1

量子比特不能从本质上隔离噪声。对于操作量子比特的量子计算机来说,最重要的设计参数之一是错误率,低错误率一直很难实现。只有进一步抑制输入端的噪声污染才能成功地进行量子计算。

2

无误差的量子计算需要进行量子误差校正。执行量子误差校正算法需要更多的量子比特,这使得计算机的开销增大,导致短时间内无法应用。

3

大数据无法有效加载到量子计算之中。没有办法将大量的数据转换成量子态。对于需要海量数据输入的问题,产生输入量子态所需的时间将占据大部分计算时间,这大大降低了量子计算的优势。

4

量子算法的设计具有挑战性。要想充分发挥量子计算机的优势,量子算法必须利用独特的量子特性。因此,量子算法的实现需要一种新的设计原则。

5

量子计算机需要新的成套软件。由于量子程序不同于经典的计算机程序,需要进一步研究和开发软件工具。量子计算机完整软硬件工具的同步发展,将加速量子计算机的发展。

6

量子计算机的中间状态无法直接测量。目前,量子态不能简单地复制用于测试,任何量子态的测量都会导致计算停止。新的调试方法对大型量子计算机的发展具有重要意义。

更多精彩观点

01

量子计算发展主要困难和技术路线

量子并行计算技术发展的主要困难

量子计算机现在只是刚起步,目前的硬件水平还不能制造出通用的量子计算机。量子比特会与外部环境发生作用而使量子衰减,这是目前面临的主要技术难题,而实现量子并行计算的两大技术困难如下:

其一,量子比特之间的相干性很难长时间保持。

目前,量子计算机的研究还处于理论和实验阶段,只能产生几十个量子位。为了在量子计算机中实现高效的并行操作,必须使相互关联的量子比特串作一个整体,即量子相干。这样,只要处理其中一个量子比特,影响就会立即传输到序列中的其他量子比特。这一特性是量子计算机高速运行的关键。

由于量子相干系统与周围环境的相互作用,相干度会迅速衰减,并且随着量子比特数的增加,保持相干态将变得越来越困难。目前,此连贯性只能维持不到一秒钟。在如此短的时间内需要完成一定数量的逻辑运算,这对量子逻辑门的开关速度提出很高要求,而量子编码是迄今发现的最有效的方法。

量子编码是用一些特殊的量子态来表示量子比特,以达到保持相干性的目的。主要的量子编码方案是:量子纠错码、量子避错码和量子防错码。其中,量子纠错码是经典纠错码的类比,是目前研究最多的一类编码,其优点为适用范围广,缺点是效率不高。

其二,要做出逻辑比特,则目前物理比特的数量仍不足。

量子比特可以进一步分为物理比特和逻辑比特。由于噪声的客观存在和物理比特稳定性的一些缺陷,只有通过对多个物理比特的冗余处理,才产生逻辑比特。一般来说,噪声较小的系统可以用较少的物理比特对逻辑比特进行编码。与物理比特相比,逻辑比特具有更好的容错性。

因此,尽管IBM、谷歌和英特尔已经制作了原型机并获得“量子霸权”,但如果他们想制作逻辑比特,则目前物理比特的数量还远远不够。事实上,这些量子计算机还处于非常原始的阶段,只能适用特定的应用。

当前,实现标准量子计算机的难点在于无法实现编码逻辑比特,当然还存在系统扩展、逻辑门精度等问题。由于这些技术瓶颈,现在开发的量子计算机只能称为原型,它们只能执行单一的特定功能,而无法实现通用的量子计算。

全球量子计算机四种技术实现路径之争

科学界最近涌现出的一些进步重新点燃了科学家想方设法组建更强大的量子计算机的热情,并促使其使用不同技术研制计算能力超强的量子计算机,从而使全球出现了四种主要的量子计算机技术实现路径。

第一,用超低温超导材料制成量子计算机。

加拿大D-wave系统公司开发的量子芯片采用特殊的铌金属材料,这种材料在低温下呈超导态,其电流具有顺时针、逆时针和顺逆时同时存在的混合状态。在此基础上,实现了量子计算。D-wave系统公司已经开始在市场上销售量子计算机业务系统,主要客户包括谷歌和美国宇航局喷气推进实验室。

第二,基于微电子制造技术的量子计算。

过去几年IBM依托于耶鲁大学和加州大学圣巴巴拉分校在量子计算领域取得了进展,研究小组将超导材料铼和铌分散在半导体表面,当冷却到绝对零度时,半导体表面呈现量子行为。研究结果表明,量子计算可以建立在标准微电子制造技术的基础上。

第三,离子阱制造量子比特。

离子阱技术是利用离子阱中的离子制造量子比特,即利用电极产生电场,在电场里“俘获”经过超冷处理的离子。研究人员已经能够利用激光实现离子纠缠。到目前为止,研究人员已经用这种方法建立了一个由8个量子位组成的系统,全球有20多个大学和公司的研究实验室从事类似的研发和设计。

第四,使用量子纠缠来获取信息。

量子计算机的基本单位是量子比特,即用原子的自旋等粒子的量子力学状态表示0和1。量子比特因可同时处于0和1的状态(量子叠加),使得量子计算机可以同时进行大量运算。根据量子力学的基本原理,随着量子比特数的增加,其计算能力呈指数增长,但是观测或测量量子比特可能会造成其计算潜力的削减。因此,研究人员利用量子纠缠来获取信息。在量子纠缠中,粒子连接在一起,则测量一个粒子的性质可以直接揭示另一个粒子的相关信息。然而,如何扩大纠缠量子位的数目并保持纠缠态是当前量子信息研究领域的一个严峻挑战。

量子计算机技术前沿

技术一,在极冷的环境下控制量子。(主要研究者为谷歌、IBM和英特尔)

量子计算机能力的“大”和“小”,基本上取决于其量子比特的数量,而在传统架构下,当量子比特的数量迅速增加,一些基本粒子对于外界的干扰会越来越敏感,导致错误率急剧上升。由于量子是微观粒子,因此哪怕极其微小的电磁场都会对其构成干扰,产生所谓的“局部噪音”。同时,由于热辐射和电磁辐射等环境噪声的存在,量子系统会受到环境的干扰。

只有在零场强和绝对零度的环境中,才有理想状态下的量子计算。这也是为什么量子计算机要放在接近绝对零度的容器里,被严严实实地封闭起来,对外界干扰“严防死守”。但是,由于这种温度环境需要消耗大量的资金和能源,这在一定程度上就阻碍了量子计算机小型通用化的技术进程。

技术二,采用“拓扑量子比特”进行计算。(主要研究者为微软)

微软不是使用普通的“逻辑量子比特”进行计算,其独特的技术路线是采用“拓扑量子比特”进行计算。拓扑量子比特是通过基本粒子的拓扑位置和拓扑运动来处理信息。无论外界的干扰如何“蹂躏”基本粒子的运动路径,只要它还连续变化,从拓扑角度来看,其运动就是等价的。

这也就是说,用拓扑量子比特进行计算,对于外界的干扰有极强的容错能力。这样一来,基于拓扑量子比特的计算机就可以在规模上很大,在能力上很强。微软是当前压宝拓扑量子计算的科技巨头。这个技术一旦取得突破,长期困扰我们的诸多计算难题将迎刃而解。

技术三,使用量子退火原理寻找最优解。(主要研究者为D-Wave)

量子退火算法可以这样理解:在量子工作环境中加入一个随机的扰动,使得计算的解更容易出现在距离最优解更近的地方,然后多次进行退火过程使结果不断接近最优解。退火算法就是利用现实世界中量子系统的自然趋势来寻找能量状态的最低点。如果优化问题和量子系统自然趋势的峰值和谷值相似,则每一个坐标就代表一种可能的解决方案,而高度(峰值和谷值的差)则表示能量值。最优解就是能量状态的最低点和量子系统的谷值相互对应。

进一步的解释是:在量子计算机里,由于量子的物质波,量子的位置可以是它附近的任一处,只不过概率不同。初始时,我们给予某量子一个扰动,就好比金属开始退火时升高温度,它有可能会产生一个与当前值有一定距离的新值,然后计算机比较这两个值。接下来我们可以更改这个扰动,好比升高退火的温度,使量子可能出现在更多的地方,并继续进行比较判断,直到最终找到最优解,而此时量子恢复初始的稳定状态,就好比金属的退火结束,温度恢复到了正常温度。这也是为什么这个方法被称为量子退火。量子退火算法就是让大自然自己去选择最优的答案。目前商用量子计算机(其实是量子退火机)D-WaveTwo会对每次计算任务重复4000次,以便使得解趋向更加精确。

02

国家层次的战略投资

从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。技术的进步将推动经济的收入,从而使资金可持续投资在研发、人才等方面并进一步促进技术创新。如同互联网发展的过程,如果我们想在量子研究中实现持续的指数级别的技术进步,就需要进行指数级别的投资,并保持这种投资的良性循环。

在量子计算机研发中,先期的商业成功将增加整个领域的投资,但在没有商业回报的中间研发环节,则需要政府增加资金支持,因为研发时,艰难的中间环节直接影响研发的成功与否。从现状看,美国、英国、日本、中国等国以及欧盟都在加大对量子计算机开发的投入。

美国

2018年9月,美国政府发布《量子信息科学国家战略概述》,旨在确保美国在“下一场技术革命”中的全球领导地位。同年12月,时任美国总统特朗普签署《国家量子计划法案》,该法案旨在确保美国在量子信息科学及技术应用方面的领先优势,支持量子信息科学技术的研究、开发、论证和应用,要求美国总统实施“国家量子计划项目”。法案授权在10年计划的前5年投资12.75亿美元用于量子信息科学,其中,向美国国家标准与技术研究院拨款4亿美元,向美国国家科学基金会拨款2.5亿美元,向美国能源部拨款6.25亿美元。这些资金将用于培养科学家、拓展研究和建立10个量子研究与教育中心。同时,该法案要求加强联邦量子信息科学技术研发的跨机构规划与协调,建立一个国家量子协调办公室,促使产业界与学术界建立伙伴关系。

英国

早在2013年的秋季预算中,英国政府就专门拨款2.7亿英镑用以支持“英国国家量子技术项目”在第一个5年的开展,意在加速量子技术的商业化进程。该项目包含4个研究中心,分别由4所高校主持,除了牛津大学领导的量子信息技术中心之外,还有伯明翰大学领导的量子传感和测量中心、约克大学领导的量子通信中心、格拉斯哥大学领导的量子先进成像中心。从2014年英国启动此项目,到2019年6月英国政府宣布向量子计算商业化投资1.53亿英镑以推动研发竞赛、新产品和创新、行业主导项目以及投资加速,5年间总投资超过10亿英镑。

欧盟

2016年3月,欧盟委员会发布《量子宣言(草案)》,计划于2018年启动总额10亿欧元的量子技术项目,旨在促进包括安全的通信网络和通用量子计算机等在内的多项量子技术的发展,以确保欧洲量子产业在全球产业蓝图中的领先地位。2018年10月,“欧盟量子旗舰项目”启动,这个10年预计花费10亿欧元的超大项目计划在三年内建造其第一台量子计算机Open Super Q,其目标是构建一台包含100个量子比特的量子计算机,并可以开放给外部用户使用。德国、西班牙、瑞典、瑞士和芬兰的10个学术和私营企业合作伙伴参与Open Super Q研发项目。欧盟量子旗舰项目重点关注四种量子技术:通信、计算、感知和仿真。同时,还将基础科学纳入其中。

日本

日本于2018年启动“量子飞跃旗舰计划”,总预算是10年220亿日元,其中三分之一将投入到量子计算机研究领域,针对此研究课题日本政府采取了产学研一体化方式进行。日本政府计划在2019年下半年将相关预算提高至250亿日元,比当时的140亿日元预算增加近一倍,以便加快量子技术的研发,为超高速量子计算提供基础技术支持,同时计划建立从基础研究到知识产权管理的综合性研究机构,推进人才培养。2019年11月日本政府专家会议在技术开发进度汇总表中提出,力争20年后实现能够进行超高速复杂计算的量子计算机实用化,缩小与欧美及中国相关领域的差距。

中国

中国将量子调控与量子信息列入“国家重点研发计划”。2016年7月,中国政府宣布将启动量子计算机研发。2017年2月,世界上最大的量子研究设施——中国量子信息科学国家实验室建设启动,一期计划投入70亿元人民币,长期投资将达千亿元人民币。2020年12月,中国科学技术大学宣布,该校潘建伟团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,成功构建76个光子的量子计算原型机“九章”,在量子计算第一阶段树起了一座里程碑。

03

风险与历史机遇

技术风险及需要克服的困难

第一,量子比特不能从本质上隔离噪声。

经典计算机和量子计算机的主要区别之一,即它们如何处理系统中微小的干扰噪声。实际上,今天的经典计算机用于控制的操作位有很大的噪声边际,所以经典计算机可以抑制输入端的噪声污染,产生干净无噪声的输出。

然而,对于操作量子比特的量子计算机来说,最重要的设计参数之一是错误率,低错误率一直很难实现。即使到2018年,5个或者更多个数的量子比特系统其错误率也超过几个百分点。在较小的系统中一般可以有效控制错误率,但当需要转移到更大的量子比特系统中时则较困难,只有进一步抑制输入端的噪声污染才能成功地进行量子计算。

第二,无误差的量子计算需要进行量子误差校正。

虽然物理量子比特的操作对噪声很敏感,但是可以在量子计算机中运行量子误差校正算法来模拟无噪声或者完全校正的量子计算。如果没有量子误差校正,像秀尔算法这样复杂的程序就不太可能在量子计算机上准确运行。

然而,执行量子误差校正算法需要更多的量子比特,这使得计算机的开销增大。虽然对于无错误的量子计算,量子比特数量至关重要,但是因为开销过大,导致短时间内无法应用。

第三,大数据无法有效加载到量子计算之中。

虽然量子计算机可以使用更少的量子比特来表示更多的数据,但是没有办法将大量的数据转换成量子态。对于需要海量数据输入的问题,产生输入量子态所需的时间将占据大部分计算时间,这大大降低了量子计算的优势。

第四,量子算法的设计具有挑战性。

测量量子计算机的状态需将大量的量子态“折叠”成单个经典结果,这意味着,从量子计算机中所能提取的数据量与从同样大小的经典计算机中提取的数据量相同。

但在未来,要想充分发挥量子计算机的优势,量子算法必须利用独特的量子特性。因此,量子算法的实现需要一种新的设计原则。量子算法的发展是量子计算机技术发展的一个非常重要的方面。

第五,量子计算机需要新的成套软件。

由于量子程序不同于经典的计算机程序,需要进一步研究和开发软件工具。量子计算机完整软硬件工具的同步发展,将加速量子计算机的发展。利用早期的工具完成端到端的设计,有助于发现隐藏的问题,从而促进设计的整体成功,这也是经典计算机设计所采用的一套方法。

第六,量子计算机的中间状态无法直接测量。

量子硬件和软件的调试非常重要。目前,量子态不能简单地复制用于测试,任何量子态的测量都会导致计算停止。新的调试方法对大型量子计算机的发展具有重要意义。

在量子计算机实现之前,量子计算还存在着重大的技术障碍。构建和使用量子计算机,需要整合计算机科学、数学、物理、化学、材料科学等一系列学科。

历史机遇

今天,科学发展的趋势有两个:

一是发现现有物质在原子层面和分子层面的组合方式,这涉及生命科学、高端材料等学科;

二是探索世界存在的本质,量子论和相对论是这一领域里的两大利器。

量子计算机的实现正在带来信息技术的革命性变化,首先可能应用于医疗、国防、航天、金融、材料等行业。如果想在这些领域内有突破性的进展,就必须突破计算量太大的难关。因此,量子计算对这些领域的发展意义极大,计算能力的飞跃必然导致这些领域的大发展。

就算法而言,量子计算机有两大优点:

一是对于任意一个传统计算机的算法,均有其相应的量子算法;

二是存在传统计算机算法无法模拟的量子算法。

人们只要造出位数和传统计算机相近的量子计算机,传统计算机算法就必然会被取代。随着人类使用的数据量越来越大,各种类型的量子计算机一定会走进我们的日常生活。量子计算机尽管在短期内不可能取代传统计算机,但它必将是人类科技文明的一个重要里程碑,是未来科技的引擎。除了量子计算潜在的社会益处之外,这项工作对国家的安全也有重大影响。

量子计算对于推动基础性研究具有重要价值,这些研究将有助于人类理解与认识未知世界。与所有的基础性研究一样,这一领域的进展会带来革命性的新知识和新应用。量子计算一定会给这个世界带来一次全新的技术革命,今天的我们甚至无法想象这样的技术革命会给社会带来怎样巨大深刻的变化。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

李联宁|量子计算机:技术路线、风险及战略投资相关推荐

  1. 量子计算机的基本构成,量子计算机的硬件单元 文/李联宁 1. 量子寄存器 存储一系列量子比特的体系称为量子寄存器。假设有一个由3比特构成的寄存器,在经典计算机中,可... - 雪球...

    来源:雪球App,作者: 书生剑客,(https://xueqiu.com/3993902801/178623085) 文/李联宁 1. 量子寄存器 存储一系列量子比特的体系称为量子寄存器.假设有一个 ...

  2. 蚂蚁金服高级技术专家李福喜 :蚂蚁开放平台技术路线及行业实践

    8月30-31日20:00-21:30,一场别开生面的技术大会-- "蚂蚁金服&阿里云在线金融技术峰会"将在线举办.本次将聚焦数据库.应用架构.移动开发.机器学习等热门领域 ...

  3. IT:后端进阶技术路线图(初级→中级→高级)、后端开发工程师(技术方向分类之后台业务开发/中间件/内核/分布式架构)基础知识简介、技术路线/技术趋势指南(如何选择自己的技术方向)之详细攻略

    IT:后端进阶技术路线图(初级→中级→高级).后端开发工程师(技术方向分类之后台业务开发/中间件/内核/分布式架构)基础知识简介.技术路线/技术趋势指南(如何选择自己的技术方向)之详细攻略 目录 后端 ...

  4. 未来两年前装激光雷达规模超150万颗,技术路线博弈下的市场

    不管马斯克"喜不喜欢",激光雷达上车已经成为趋势. 本周,威马首款纯电轿车M7首发亮相,搭载来自速腾聚创的3颗自主变焦高精超视激光雷达,从而实现高频场景到低频场景的用车场景全覆盖. ...

  5. 清华微电子副所长尹首一:中国AI芯片的技术路线最全面

    大数据文摘出品 整理:牛婉杨 12月1日,GTIC 2020 AI芯片创新峰会在京举办,本次峰会聚集了AI芯片以及各个细分赛道的产.学.研精英人士,共议AI芯片在中国半导体黄金时代的创新与未来. 20 ...

  6. 区块链毕设开题技术路线

    毕设资料摘抄自 https://www.interchains.cc/ 区块链毕设开题技术路线怎么写 制作研究内容的流程图,表达每个内容之间的关系,尤其是逻辑关系,是如何实现研究思路的具体过程 技术路 ...

  7. 巨头王炸不断,硬核解读芯片技术路线

    上周我在博客发布了一篇<龙芯自主指令集到底强在何处>的文章,虽然这只是一篇临时起意之作,信息有限的拙作,不过最近整个半导体行业实在风起云涌,上周四IBM推出了2nm的芯片,苹果春季发布会上 ...

  8. 下一代动力电池深度报告,三大技术路线谁能笑到最后?【附下载】| 智东西内参...

    来源:智东西 编辑:智东西内参 摘要:随着全球电动车浪潮席卷,关于固态电池的新闻越来越多. 从 Fisker 宣称开发充电 1 分钟行驶 500 公里的固态电池,到宝马已与 SolidPower 进行 ...

  9. oppo问答系统技术路线

    本笔记主要解析DataFunTalk公众号上发布的文章<李向林:OPPO自研大规模知识图谱及其在小布助手中的应用>中问答系统搭建方面的内容 文章目录 1.领域分类 2.结构化问答 2.1. ...

最新文章

  1. i服务器2008系统,Windows Server 2008多路径 I/O 概述
  2. 北航计算机考博C语言真题_北京航空航天大学计算机考研:严厉的老父亲,教会你本事,本科非211以上就不要去了...
  3. IP代理在网络游戏中的应用
  4. 微软发布正式版SQL Server 2016
  5. 市场压力只有老板扛?柏明顿阿米巴如何传递经营压力
  6. [转载] scala
  7. ORA-01830:日期格式图片在转换整个输入字符之前结束
  8. 在相册查看保存的图片
  9. 众善之源 or 万恶之源?详析微服务的好与坏
  10. unity android profile adt,Unity Android OBB
  11. 硬件开发者之路之——保护电路系列之输入电源端口的防护设计
  12. 数据结构——二叉链表创建二叉树(C语言版)
  13. Hadoop 权威指南 第四版 中文目录
  14. 小米 android 7.0下载地址,小米4安卓7.0
  15. 文件服务 FTP Server
  16. MySQL性能优化(三)Buffer Pool实现原理
  17. 项目docker容器化部署步骤
  18. C语言超出类型数值范围的表示方法
  19. MMLAB学习-Gard-CAM可视化方法
  20. python break怎么跳出两层循环(多层循环)?添加标志量

热门文章

  1. 基于深度学习的Person Re-ID(综述)
  2. CentOS6.5_64下 nginx+uwsgi+Python +多站点环境搭建
  3. 浅谈对主成分分析(PCA)算法的理解
  4. 刘知远 陈慧敏:流言止于“智”者——网络虚假信息的特征与检测
  5. 用GAN还原语义标注图!还能手动改细节(附论文、代码)
  6. 全球首个安全有效新冠疫苗:陈薇院士团队研制,登上《柳叶刀》
  7. 学术圈又曝出新瓜了?与院士共任通讯作者,网友:真“飞升疾走”
  8. 微软招聘研究实习生,base美国or加拿大
  9. 一份史上最全的深度学习资料,包括国内外顶尖学校课程以及顶会论文集
  10. 「NLP-语义匹配」详解深度语义匹配模型DSSM