按:
11月,法国著名物理学家Mikhail Dyakonov在IEEE Spectrum上发表了“The Case Against Quantum Computing”一文,引起量子计算界的巨大反响。这里将全文翻译如下:
文章来源:https://spectrum.ieee.org/computing/hardware/the-case-against-quantum-computing
对量子计算的反对
量子计算的实现方案需要实现极高的精度和巨量的变量
量子计算风靡一时,几乎每天都会出一条新闻,说明该项令人惊叹的技术,会给世界带来多么巨大的变化。但大多数新闻记者都忘了,或者有意无意的不提,人们研究量子计算已经有好几十年了,但却拿不出实际有用的算例来。
有人告诉我们说,量子计算机可以为许多学科带来突破,包括材料和药物研制,复杂人造系统的优化和人工智能,等。有人告诉我们说,量子计算将永远的改变我们的经济、工业、学术、和社会。有人告诉我们说,量子计算机将很快破解我们这个世界最机密数据的加密方案。量子计算已经变得如此重要,以至于很多物理学领域的研究人员,不得不尽量跟量子计算扯上关系,才能说明他们的研究是有意义的,才能获得支持。
与此同时,政府研究机构,学术部门和大企业的研究实验室,正在花费巨大的人力物力开发量子计算机。在华尔街,摩根士丹利和其他金融巨头预计,量子计算很快就会成熟,并且很想知道,如何充分利用这项技术带来的变化牟利。
量子计算正在成为一种自我激励的军备竞赛,许多组织似乎只是为了避免落后而不得不继续参加。谷歌,IBM和微软等公司的一些顶尖技术人才正在努力工作,利用奢侈的实验室设备,努力实现他们对量子计算未来的期望。
因此,我们很自然地想知道:量子计算机什么时候会派上用场?最乐观的专家估计,需要5至10年。更谨慎的预测20到30年。(顺便说一下,在过去的20年内,内容完全一样的乐观的和谨慎的预计一直在重复)。我属于极少数,我的答案是,“在可预见的未来无法实现。”我花了几十年的时间研究量子物理和凝聚态物理,最终形成了现在这一不乐观的看法。我的看法基于我对量子计算必须克服的巨大技术挑战的理解。
量子计算的想法最早出现在近40年前。1980年,俄罗斯出生的数学家尤里·马宁,就职于波恩的马克斯普朗克数学研究所,首先提出这一概念,尽管相当模糊。加利福尼亚理工学院的理查德费曼(Richard Feynman)也独立提出了同一概念。
如果被研究的量子系统很复杂,其计算机模拟会变得无法计算。费曼提出,计算本身应该以量子模式运行:“自然不是经典的,该死的,如果你想模拟大自然,你最好让它以量子的方式运行,这一定是一个非凡的研究课题,因为它看起来不那么容易“,这是他的说法。几年后,牛津物理学家David Deutsch正式提出了一种通用量子计算机,或者说一种通用图灵机的量子对应计算机。
该概念当时没有引起大家的注意。直到1994年,数学家彼得·肖尔Peter Shor(当时在贝尔实验室,现在在MIT)提出了一种算法,认为,一个理想的量子计算机,将可以非常快地分解一个非常大的数字,比普通的电脑要快很多。这一非凡的理论预言引发了人们对量子计算的浓厚兴趣。已经发表了数千篇关于这一问题的研究论文,其中大部分都是理论性的,论文还在继续以越来越快的速度发表。
量子计算存储和处理信息的工作方式迥异于基于经典物理的传统计算机。抛开许多具体的细节,我们可以简单的归纳为,传统计算机通过操纵大量微小的晶体管,实际上也就是很多微小的开关,进行计算。那些微小的开关会在计算机时钟周期的控制下改变状态。
在任何给定时钟周期开始的时候,经典计算机的状态可以由相应的单个晶体管的长序列来描述。对于N个晶体管,计算机有2N种可能的状态。根据程序的要求,在这台机器上进行计算,基本上就是将一些晶体管在“开”和“关”状态之间切换。
在量子计算中,经典的双态电路元件(晶体管,经典位)被称为量子比特的量子元件取代。与经典位一样,量子位也有两个基本状态。虽然量子比特有很多种实现方案,最简单的量子位可以用电子的内禀角动量,也就是自旋,来表示。自旋有一种奇怪的性质,也就是无论如何选择轴的方向,自旋在该轴上的投影只有两个可能的值,+1/2或者-1/2(单位是普朗克常数)。无论如何选择轴的方向,您都可以将电子自旋的两个基本量子态表示为↑和↓。
事情变得奇怪了。对于量子位,这两种状态并不是唯一可能的状态。那是因为电子的自旋由量子力学波函数描述。并且该函数涉及两个复数,即α和β(称为量子振幅),它们是复数,具有实部和虚部。那些复数,α和β,每个都具有一定的幅度,并且根据量子力学的规则,它们模的平方必须加起来等于1。
那是因为当你测量时,这两个幅度的平方对应于电子自旋为基本状态↑和↓的概率。例如,如果在↑状态下找到电子的概率是0.6(60%),那么在↓状态下找到它的概率必须是0.4(40%) - 其它任何结果都没有意义。
与仅能处在其两个基本状态之一的经典比特相比,量子位可以处在连续的可能状态,其状态由量子振幅α和β的值定义。这一属性通常用一种神秘和唬人的方式描述为,量子位可以同时处于↑和↓两种状态。
是的,量子力学常常违反我们的直觉。但是这一概念不应该用这种令人困惑的语言来表达。让我们设想一个x-y平面上的矢量,矢量与x轴成45度。有人可能会说这个矢量同时指向x方向和y方向。这种说法在某种意义上是正确的,但它并不是真正有用的描述。说一个量子位同时处于↑和↓两种状态,在我看来,同样没有意义。然而,这种方式已经成了记者们的规范。
在一个有两个量子位的系统中,有22或4种基本状态,可写成(↑↑),(↑↓),(↓↑)和(↓↓)。当然,两个量子比特可以通过涉及四个复数的量子力学波函数来描述。在一般情况下,如果有N个量子位,系统的状态由2N个复数描述,这些复数的模方之和必须为1。
一台传统的计算机,如果有N个经典位,它的状态必须是2N个可能状态之一。但是有N个量子位的量子计算机,它的状态可以连续地处在2N个量子幅描述的状态中,而量子幅是连续参数(可以为任何值,而不仅仅是0或1)。这正是量子计算机声称的巨大计算能力的来源,但也是其难以克服的脆弱性和不可靠性的来源。
如何在这样的机器中处理信息?可以通过某些变换——被称为“量子门”——以精确和可控的方式改变这些参数(量子幅)来实现。
专家估计,如果与你的笔记本电脑比赛解决某些感兴趣的问题,一台可用量子计算机所需的量子比特数,在1000到100,000之间。因此,在任何给定时刻,描述这种可用量子计算机状态的连续参数的数量必须至少为21,000,即大约10300。这是一个非常大的数字。到底有多大?它远远大于可观测宇宙中亚原子粒子的数量。
再说一遍:一台可用的量子计算机,必须处理比可观察宇宙中的所有亚原子粒子加起来还要多的一组连续变量。
如果认识到这一点,无论这一可能的突破性技术多美好,即使死硬的工程师也会失去兴趣。但是让我们继续。在任何真实世界的计算机中,您都必须考虑差错的影响。在传统的计算机中,每个晶体管在该开的时候开,该关的时候关。可以在硬件中使用相对简单的纠错方法来防止错误的发生。
相比之下,如何控制一台可用量子计算机的10300个连续参数?这是绝对不可想象的。然而,量子计算理论家成功地说服了公众,让大家认为这是可行的。实际上,他们声称,一个叫做阈值定理(threshold theorem)的定理,可以证明这是可行的。他们认为,一旦每量子位每量子门的误差低于一定值,无限长的量子计算是可能的,代价只是需要大幅增加所需量子位的数目。他们认为,有了这些额外的量子位之后,可以通过使用多个物理量子比特构成逻辑量子比特来处理错误。
每个逻辑量子位需要多少物理量子位?没有人真正知道,但估计通常在1,000到100,000之间。因此,结果是量子计算机现在需要一百万或更多的量子比特。量子计算机——1000个量子位就已经要处理远超天文数字的连续参数了——只能变得更加荒谬。
即使不考虑这些无法想象的大数字,到现在为止,还没有人能想出办法,将很多物理量子位组合成数量较少的逻辑量子位,并且算出一些实际有用的东西来。这显然是令人沮丧的,因为那么多年以来,这显然应该是一个应当早已实现的简单目标。
在21世纪初,应先进研究和开发计划(美国情报系统的一个项目支持机构,现在是情报先进研究计划的一部分)的要求,量子信息方面的一个著名专家团队规划了一个量子计算路线图。根据路线图,2012年的目标是,“需要大约50个物理量子位”和“在容错[量子计算]操作中运行多个逻辑量子位,以便实现相关量子算法的简单计算实例......“,现在已经到了2018年底,而且这种能力还没有看到演示。
量子计算已经产生了大量的学术文献。但是描述量子计算硬件的实验研究文献却很少。根据相对较少的实验文献,实验极难进行,尽管如此,这些文献必须得到尊重和钦佩。
这种原理验证实验的目的是展示进行基本量子操作的可能性,并检验已经设计出的量子算法的一些元件。这些实验的量子位的数目低于10,通常是只有3到5个。显然,从5至50个量子位(目标由ARDA专家小组2012年制定)的目标没有实现,说明实验上还有巨大的困难没有克服。最有可能的是,这一实验困难与如下简单事实有关:25 = 32,而250 = 1,125,899,906,842,624。
相比之下,量子计算的理论似乎没有遇到需要处理数百万量子比特的任何困难。例如,在关于错误率的研究中,正在考虑各种噪声模型。已经证明(在特定的假设条件下),“局部”噪声产生的误差可以通过精心设计的巧妙方法来校正,除了其它技巧外,还利用了大规模并行,数千个量子门同时应用于不同的量子位对,上千次测量也同时进行。
在十五年前,ARDA的专家小组指出,“在满足某些假设的条件下,可以确定,如果每个量子门的精度达到一定阈值,量子纠错将允许量子计算机无限计算。”这里的关键词是“在满足某些假设的条件下”。然而,该专家组没有讨论这些假设条件能否满足。
我认为他们做不到。在物理世界中,连续量(无论是电压,还是确定量子力学波函数的各种参数)不可能被精确地测量和操作。也就是说,不可能让一个可以连续变化的变量具有精确值,包括零。对于数学家来说,这可能听起来很荒谬,但正如任何工程师都知道的那样,这是我们生活的真实世界无可置疑的现实。
当然,可以准确地测量一个离散量,例如教室中的学生数量,或“开启”状态下的晶体管数量。但对于连续变量,不是这样的。这一事实说明了传统数字计算机和假想中的量子计算机的巨大差别。
实际上,量子计算理论家们做的各种假定,如制备量子位到指定状态,量子门的操作,测量的可靠性,等等,全部不能精确地实现。这些假定只能以很低的精确度实现。所以,真正的问题是:需要达到什么样的精度?比如,计算2的平方根(很多量子计算操作中无法避免的一个无理数),实验上需要达到什么样的精度?它应该近似为1.41还是1.41421356237?或者更精确?对于这些关键问题,没有明确的答案。
虽然现在正在讨论构建量子计算机的各种方案,但许多人认为最有希望的方法是IBM,Google,Microsoft以及其它一些公司追求的一套方案,该方案最早由加拿大公司D-Wave Systems实现。该方案中,需要将一个相互连接的约瑟夫森结的量子系统冷却到非常低的温度(低至约10毫开尔文)。
该方案的最终目标是建造一台通用量子计算机,可以用于各种计算,能够利用Shor算法在大数分解方面打败传统计算机,利用同样有名的Gover算法(贝尔实验室的Lov Gover1996年提出)做数据库搜索,和其它适合量子计算机的专用算法。
在硬件层面,研究也在继续。49比特芯片(英特尔),50比特芯片(IBM),和72比特芯片(谷歌),最近已经被研制出来并投入研究。这些工作的最终意义并不清楚,因为这些公司没有透露他们工作的细节。
虽然我相信这样的研究是有益的,并且可以导致我们更好地理解复杂的量子系统。但我非常怀疑,这些努力能够导致实际可用的量子计算机的出现。这种量子计算机必须能够在微观水平上以极大的精度操作——这样一个物理系统的特征是不可想象的巨大的参数集合,而每一个参数都是连续可变的。我们能够最终掌握控制10300个连续可变参量的能力,以确定这样一个量子系统的状态吗?
我的回答很简单。不可能,永远不可能。
我相信,与表面的繁荣相反,量子计算的热情已接近尾声。这是因为,几十年是技术或科学领域任何大泡沫的最长寿命。经过一段时间后,已经做出了太多未兑现的承诺,任何一直关注这个话题的人,都会对连续不断地宣布的即将到来的突破感到厌烦。更重要的是,到那时,该领域的所有终身职位都已被占用。支持者们变老了,不再那么热心,而年轻一代会探索全新的领域,并且更有可能成功。
所有的这些问题,和我没有在这里提到的一些问题,将引发量子计算未来的严重怀疑。在极端繁荣的量子计算理论研究,和基本的但是非常困难的实验研究之间,存在巨大一条巨大的鸿沟。理论需要可靠地操纵上千个甚至上百万个量子位才能进行有用的计算,而实验只能非常困难地操作几个量子位。这一鸿沟看不出有很快填平的希望。
在我看来,量子计算研究人员应该注意到IBM物理学家Rolf Landauer几十年前在该领域刚开始热门时所做的事情。他敦促量子计算的支持者,在他们的出版物中加入免责声明:“这种方案与所有其他量子计算方案一样,涉及未经验证的技术,不允许任何可能的噪声源,不可靠性和制造错误,可能不会奏效。“
作者介绍:
Mikhail Dyakonov在法国蒙彼利埃大学查尔斯库仑实验室从事物理学研究。他的名字与很多物理现象有关,也许最著名的是Dyakonov表面波。
转载本文请联系原作者获取授权,同时请注明本文来自雷奕安科学网博客。
链接地址:https://wap.sciencenet.cn/blog-268546-1153118.html?mobile=1
收藏