量子计算这个梦,是怎么一步步照进现实的?

未知 2023-10-29 10:25

16世纪以来,世界科技大致发生了五次革命,包括两次科学革命和三次技术革命。第一次科学革命以经典力学为代表,在伽利略和很多科学家的基础之上,实现了自然科学的第一次大综合,成为之后的两次工业革命的理论基础。

第二次科技革命以量子力学和相对论为标志,20世纪初的科学家们发现,牛顿的经典力学只能用于宏观、低速(相对于光速)的情形下,在微观世界和接近光速以及强引力场下无能为力,于是量子力学和相对论诞生了。

从此,人类进入了一个崭新的时代——信息时代。当量子力学被应用到固体等复杂体系时,它解释了材料为何有导体、半导体和绝缘体之分,并提出了半导体二极管、三极管等概念,后来发展为集成电路,成为现代电子计算机的技术基础。

诺贝尔奖得主李政道说过:“如果没有狭义相对论和量子力学的诞生,就不会有后来的原子结构、分子物理、核能、激光、半导体、超导体、超级计算机等一切科学文化的发展。”

尽管晶体管、集成电路等器件的微观原理都涉及量子力学,但这些器件遵从经典物理规律。这是第一次量子革命。

第二次量子革命则是直接开发基于量子特性本身的量子器件,它以量子比特为单元,信息的产生、传输、存储、处理、操控等全都基于量子力学规律,称为量子信息技术。

理查德·费曼是一位天才物理学家,1942年,只有24岁的费曼参加了研制原子弹的曼哈顿计划。费曼在量子力学领域也贡献颇多,1965年因在量子电动力学方面的贡献获得诺贝尔物理学奖。

费曼不仅对量子理论贡献巨大,还是提出量子计算设想的第一人。那是1981年,物理学家爱德华·弗雷德金组织了一次“物理与计算”会议,费曼应邀作了“用计算机模拟物理”的报告。费曼在报告中提出了两个问题:

经典计算机是否能够有效地模拟量子系统?答案是否定的,因为计算量将随着系统的增大(微观粒子数的增加)而指数式增加。如果从微观世界的规律开始计算,由于研究对象包含的粒子数非常大,经典计算机的计算能力已经不能胜任这项工作。

如果放弃经典的图灵机模型,是否可以做得更好?费曼认为要想模拟这个量子行为的世界,就得研究微观世界的量子是如何工作的,然后建造一个按照量子力学的规律来运行的计算机才能成功模拟它。

我们知道,量子计算利用的是量子叠加的特性。多个量子比特与同样数目的经典比特比较,差别是指数级的。N个经典比特一次表示的数字只有1个,N个量子比特一次能表示的数字数目为2的N次方。当N=250时,可以表示的数字数目比宇宙中所有原子的数目还要多。

虽然原理不难理解,但做起来并不是那么回事。费曼提出量子计算概念将近40年了,目前最好的量子计算机也不过包含几十个量子比特,而如今最好的经典计算机少说也有几十亿个比特。这是因为,量子计算机“快速计算”的优越性是以结果的不确定性为代价的。

假设我们有一个由3个量子比特构成的计算器。对3比特的经典系统而言,二进制的101加上二进制的010得到111,即十进制的5+2=7。而对3个量子比特的系统,每个量子比特都是0和1的叠加,一次就能表示0到7(十进制)这8个数。当我们输入2(二进制010),并发出运算指令后,所有8个数都开始运算,都加2,并同时得出8个结果(2、3……9)。

也就是说,一个经典的3比特系统一次计算只能得到一个结果,量子系统一次计算就可以得到8个结果,相当于8个经典计算同时进行运算,从某种意义上讲,相当于把计算速度提高到8倍。

运算后,经典计算机得到1个确定的数,量子计算机得到8个不确定的数。然而,量子计算的结果不能全部输出,因为一旦输出,量子叠加态就会坍缩成8个数值中的一个,就再也找不回其他数值了。

量子力学里的波函数坍缩,在这里叫“退相干”现象。退相干使得量子系统回到经典状态,叠加态坍缩到固定的本征态,粒子之间不再互相纠缠。退相干如果发生在计算过程中,就会影响运算结果,使量子计算出现错误,过高的错误率极大地阻碍了量子计算的实现。

因此,为了避免退相干,使量子计算系统能维持独立运算能力,我们需要把量子计算系统与环境隔离开(至今也没有最好的解决办法)。

然而,量子计算机最终还是需要接触外界,才能得到输出结果。量子计算机的计算结果通过对输出态进行量子测量而得到。

假设结果是0与1的叠加态,输出就会使得这个量子比特的叠加态变成确定的本征态0或1,或许你有60%的概率测到0,40%的概率测到1,但测量只能进行一次,测量后整个状态便退相干了。

因此,输出结果是不确定的,有一定的错误率。如何保证输出结果的精确度是量子计算中的大问题。当然也不是完全没有希望,一些具体的量子算法可以提高输出结果的准确率。

为什么将近四十年才做到几十个量子比特?并非量子计算的研究长期停滞,而是因为从概念到算法再到物理实现(可以实际应用的量子计算机),每一步都不简单。

上世纪90年代以来,量子计算机的算法发展得到巨大的进步。在量子算法的研究中,出现了三个里程碑式的重要算法:Shor算法、Grove算法和HHL算法。

早在1985年,牛津大学的DavidDeutsch提出量子图灵机的概念,量子计算开始具备了数学的基本型式。1992年与剑桥大学的RichardJozsa提出了所谓的Deutsch-Jozsa量子算法。

Deutsch-Jozsa算法演示说明量子计算如何在计算能力上远超经典计算,它是量子并行计算理论的基石,著名的Shor大数分解算法就是以它为基础的。

1994年,贝尔实验室的彼得·肖尔(PeterShor)提出一种量子算法,可以利用量子计算机自身固有的并行运算能力,在可以企及的时间内,将一个大的整数分解为若干质数之乘积。因此,Shor算法也叫质因数分解算法,是一种用来破解RSA加密的量子算法。

RSA加密算法是1977年由RonRivest、AdiShamir和LeonardAdleman一起提出的。该算法基于一个简单的数论事实:将两个质数相乘较为容易,反过来,将其乘积进行因式分解而找到构成它的质数却非常困难。

例如,计算17×37=629是很容易的事,但是,如果反过来,给你629,要你找出它的因子就困难一些了。并且,正向计算与逆向计算难度的差异随着数值的增大而急剧增大。

对经典计算机而言,破解高位数的RSA密码基本不可能。例如,一个每秒能做1012次运算的机器,破解一个300位的RSA密码需要15万年。

Shor算法就不一样了,它能够利用量子计算机快速找到整数的质因数。比起传统已知最快的因数分解算法、普通数域筛选法还要快了一个指数的差异。

Shor算法与经典算法的比较

据美国国家科学、工程和医学院2018年发表的量子计算报告预测,运行Shor算法的量子计算机将能够在一天内破解RSA1024位加密。破解刚才那个300位的密码,不过是一眨眼的时间。

这对于国际竞争来说意义非凡:如果在战争中,敌方拥有量子计算机的话,破解我方通信将变得轻而易举,这太可怕了!虽然通用的量子计算机目前尚未开发出来,但防患于未然还是有必要的,这就是如今各个大国大公司都在研究量子通信技术的原因。

一方面,大家都想先别人一步制造出可轻松破解RSA密码的量子计算机,一方面,各国也都在加紧研发连量子计算机也不能破解的加密体系。

1996年,贝尔实验室的洛夫·格罗弗(LovGrover)提出了Grover量子搜索算法,该算法被公认为继Shor算法后的第二大算法。Grover算法的作用是从大量未分类的个体中,快速寻找出某个特定的个体。

例如,在下班的高峰期,要从公司回到家里,开车走怎样的路线才能够耗时最短呢?最简单的想法,当然是把所有可能的路线一次一次的计算,根据路况计算每条路线所消耗的时间,最终可以得到用时最短的路线,即为最快路线,这样依次将每一种路线计算出来,最终对比得到最短路线。

如果使用经典计算机搜寻,只能一个接一个地考察,直到找到为止。设路线为N条,平均来说需要搜索N次,而采用量子搜索算法的话,则可以以√N的速度进行搜索,这是由量子叠加态决定的。

当路线数量是100条时,经典计算机和量子计算机的搜索次数差别是100次和10次,而当路线数量是100万条时,差别就是100万次和1000次。

除了加快搜索速度以外,在读取结果之前,Grover算法让量子计算机重复进行某些“操作”来改变待输出的量,使它刚好等于目标的概率增加到接近1。然后,人们再从计算机中读取输出态。

也就是说,Grover算法让计算机在被人测量之前,尽可能地减小误差率。这样就同时解决了系统塌缩和误差较大的问题。

如今,Shor算法和Grover算法,已经成为构造其他量子算法的重要基础。终极目标是制造一台优于传统计算机的通用量子计算机,其能够运用Shor算法对大数进行因式分解,运用Grover算法执行数据库检索,以及运行专门的量子计算机应用程序。

从此,量子计算机的发展开始进入新的时代,各国政府(主要是美国、欧洲、日本、中国)和各大公司也纷纷制定了针对量子计算机的一系列研究开发计划。

2008年,麻省理工学院的AramHarrow、AvinatanHassidim和SethLloyd三位学者联合开发了一种求解线性系统的量子算法。比如在一个N×N的矩阵中,若采用高斯消元法可以在O(N3)时间内求解,HHL算法则可以在O(log2N)时间内求解,从而达到加速的目的。

HHL算法的提出意义重大。线性系统是很多科学家和工程领域的核心,HHL算法将是未来能够在机器学习、人工智能科技得以突破的关键性技术。

新的量子算法陆续被提出来,科学家接下来所面临的重要的课题之一,就是如何去建造一部真正的量子计算机来运行这些量子算法。

2000年DiVincenzo提出了5条标准,只有满足这5条标准的物理体系才有望构建出可行的量子计算机:(1)可定义量子比特,(2)量子比特有足够的相干时间,(3)量子比特可以初始化,(4)可以实现通用的量子门集合,(5)量子比特可以被读出。

许多量子系统都被设想为量子计算机的基础架构,例如偏振光子、腔量子电动力学、离子阱以及核磁共振等等。当前,考虑到系统可扩展性和操控精度等因素,离子阱与超导系统走在了前面。

离子阱是最早尝试实现量子计算的物理体系。该体系实现量子计算的理论方案最早由欧洲的Cirac和Zoller于1994年提出,同年,美国国家标准与技术委员会(NIST)开始了该方向的实验研究。

早在上世纪50年代末,离子阱就被应用于改进光谱测量的精确度。离子阱本身的原理也很简单,就是利用电荷与磁场间所产生的交互作用力来约束带电粒子,使其行为得到控制。

既然离子阱所擅长的地方在于控制,那么,离子阱技术路线相较于其他路线而言最大的优势就是稳定了。来自杜克大学的JungsangKim教授曾在2014年撰文表示:囚禁离子可以生成非常稳定的量子比特。它们提供稳定且隔离程度良好的量子系统。

2018年12月11日,IonQ公布了两个新型离子阱量子计算机,它具有160个存储量子比特和79个量子比特;2023年5月,IonQ宣布,其量子计算机IonQAria系列的最新旗舰量子系统,正式在AWS量子计算云平台AmazonBraket上线,其算法量子比特(#AQ,评估量子计算系统性能的指标)高达25,是当前世界上最强大的商用量子计算机之一。

IonQ的Aria量子系统

IonQ量子芯片

另一大离子阱量子计算巨头、霍尼韦尔的子公司Quantinuum也在2023年5月推出了第二代量子计算机H2,并利用它创造了一种寻找已久的神秘粒子——非阿贝尔任意子,迈出了构建容错量子计算机的关键一步。

尽管离子阱方案技术上较为成熟,但可扩展性有限,限制了它向实用化量子计算机的发展。所谓可扩展性指的是系统上可以增加更多的量子比特,从而才能走向实用化量子计算机。

目前已知的可扩展性最好的方案是超导技术。所谓超导,是指当温度降低到一定程度,某些材料会出现零电阻和完全抗磁性的现象。

超导量子计算机的核心组成部分是一种称为约瑟夫森结(Josephsonjunction)的超导电子器件。约瑟夫森结是一种“超导体—绝缘体—超导体”的三层结构,两块超导体通过纳米尺度的绝缘层连接。

上世纪80年代以来,人们在超导约瑟夫森电路中陆续观测到能级量子化、量子隧穿等宏观量子现象。与原子、光子等天然量子系统相比,基于约瑟夫森结的超导量子比特的能级结构是可通过对电路的设计来定制,并且也可通过外加电磁信号来进行调控。

由于超导量子比特的尺寸在微米量级,比一般的量子系统大1000倍,在设计加工上可以直接采用许多低温微电子学器件的制作技术。

之所以必须要极低温,是因为约瑟夫森量子电路用到的光子能量比可见光要小5个数量级。如此低能的能级,要想保持其中量子态的相干性,环境中的噪声就必须远低于这个能级差。因此,超导量子计算机必须要配备稀释制冷机,在极低温的条件下才可以工作。

目前,潘建伟团队在光量子方案上处于领先地位。该方案利用的是单光子做量子比特,通过复杂光路系统来计算。如果光子不被吸收和散射,它的相干性就一直能保持,因此它的相干时间可以用现有的光学元件做到很长。但光量子方案的可扩展性受到光子线宽和集成光路等技术的限制。

这就是为什么超导系统的相干性非常脆弱,却仍以它为主要技术路线的根本原因:目前,只有超导系统能够满足量子计算机对扩展性的要求。

用郭光灿教授的话来说,要实现“量子计算优越性”(指量子计算机超越所有经典计算机的计算能力),必须保证量子芯片的物理量子比特数“起码是10万以上”、相干时间要足够长,以及有足够应对局面的量子纠错技术跟容错技术。

Shor算法和Grover算法证明了量子计算机的强大之处,但算法再强也必须要有与之匹配的硬件。而目前的技术水平,仅能实现433个量子比特(根据IBM公开数据)。那么,只有几十个量子比特是不是就没什么用了呢?并非如此。

为了更早地让量子计算机展现出它的优势,物理学家们想到了针对一些特殊的问题,可以用专用型量子计算机来解决。这些专用型量子计算机可以不需要逻辑门(操作一个小数量量子位元的量子线路),只靠自身系统的特点来通过模拟的方式来针对性地解决问题。

例如,Google联合多家研究机构将量子退火技术应用于图像处理、蛋白质折叠、交通流量优化、空中交通管制、海啸疏散等领域。JSR和三星尝试使用量子计算研发新材料特性。

上市咨询公司埃森哲、生物科技公司Biogen和量子初创公司1Qbit,联合开发量子化分子比较应用,改善分子设计加速药物研究。德国HQS开发的算法,可以在量子计算机和经典计算机上有效地模拟化学过程。

量子模拟有望利用相应的量子算法在更长的时间范围内准确地进行分子模拟,从而实现当前技术水平无法做到的精确建模,这有助于加速寻找能够挽救生命的新型药物,并显著地缩短药物的开发周期。

金融方面,摩根大通、巴克莱希望通过蒙特卡洛模拟加速来优化投资组合,以提高量化交易和基金管理策略的调整能力,优化资产定价及风险对冲。

量子计算同样能够推动人工智能和机器学习等的演化进步,从而实现高科技技术之间的协同效应。

机器学习就是识别系统中数据呈现出来的趋势,其主要任务是在高维向量空间里对数据进行操控和分类,HHL算法正好可以施用于支持向量机,Lloyd参与的另一篇论文指出,所有的量子支持向量机都能被用作进行大数据分类,而且较之经典计算机在速度上有显著的优势。

而今,自动汽车、自动驾驶、脑机交互、自然语言处理乃至线上广告、搜索引擎、推荐系统等都是机器学习的热门领域,从这一点来说的话,我们可以毫不夸张地说,量子计算实际上决定了包括特斯拉、Google、微软、亚马逊、Facebook等公司在未来的发展方向和趋势。

此外,量子计算的强大也让各国加大投资量子加密,而以量子加密为基础的量子通信已经是目前量子领域中最成熟的应用。在量子通信方面,中国在研究、应用方面所获得的成就全面领先于其他国家。除了墨子号的发射之外,2000公里的“京沪干线”是世界上第一条量子通信网络。

一个连接到望远镜后面的QKD光学接收器,用于接收卫星发送的量子信号

不得不说,至今我们依然没有一台真正实用的量子计算机问世。但我们又不得不承认,利用量子技术产生的成果正越来越多地应用到我们的生活之中去。

[1]

[2]

转载内容仅代表作者观点

不代表中科院物理所立场

如需转载请联系原公众号

编辑:Callo


参考资料
标签