最近发现的构建量子计算机的更简便方法,将大大提前量子计算机问世的时间。
量子计算机,是一种基于量子物理机制处理数据的计算机,能够以远高于目前计算机的速度运行。政府和技术企业巨头已对量子计算机的研发投入了海量资源,但是没人能说清量子计算机离实用化到底还有多久。
最近,一些顶尖研究团队根据最新发现,认为量子计算机的实现可以比我们想象的更早。前日,谷歌和西班牙巴斯克大学的研究人员公布了一项研究成果,根据该成果,人类有望以较之前简便的多的方法构建一台能充分发挥量子计算能力的验证样机。
研究人员将之前投入了巨量人力财力却进展缓慢的研究路线下的量子计算机称为“数字量子计算机”,它的结构模式与今天的数字电子计算机类似,且它的设计已经经过了长期锤炼。然而,数字量子计算机需要大量的纠错软硬件资源来补偿计算中脆弱的量子效应。
谷歌、IBM和包括一家创业企业在内的财团已改变策略,正在加速研发“模拟量子计算机”。
模拟量子计算机的结构跟传统数字计算机相比差别很大,并且现有理论还不能完全解释其运行机理。当然,模拟量子计算机仍需要纠错,但是纠错所要求的资源将少得多。因此,构建一台量子计算验证机将更加容易。谷歌量子计算硬件项目负责人,高级研究员约翰·马丁尼斯(John Martinis)在去年的采访中表示,在几年之内,模拟量子计算芯片就有望问世。
谷歌团队用模拟量子计算机制构建了一个超导量子芯片来模拟9个相互之间存在磁力作用的原子。这种设计方法使得之前为数字量子计算机开发的纠错技术可以被采用。
该芯片拥有9个量子比特。研究人员生成,如果要求一台量子计算机达到传统计算机根本无法企及的性能,那么它必须至少拥有40个量子比特。当然,初创公司D-Wave Systems已经制成了拥有超过1000个量子比特的演示芯片。然而,尽管该芯片的性能令人惊喜,该公司却始终不能令人信服地证明,这种性能增益来自真正意义上的量子计算。
谷歌认为,模拟量子计算机应该能较数字量子计算机更快达到1000量子比特的体量,并且业内其他专家也基本认可这个预期。
谷歌或其他公司的模拟量子计算机一旦成功,则可以被用来分析并解开医学和能源领域的难题,这些领域要求进行原子级别的大规模仿真,传统计算机根本无能为力。
谷歌相信,模拟量子计算机也将极大推进机器学习和人工智能技术。谷歌CEO桑德拉(Sundar Pichai)声称,谷歌已经进入了“人工智能驱动时代”。
哈特马特·耐温(Hartmut Neven)是谷歌量子计算应用设计团队的负责人,他在去年的采访中表示,量子计算驱动的人工智能能够让今天的人工智能完全过时。”10年之内人们将彻底放弃传统机器学习而拥抱量子机器学习。”
【翻译:离子心 DeepTech深科技(微信号:mit-tr)】
·氧分子网(http://www.yangfenzi.com)延伸阅读:
➤ MIT发现稳定量子比特的新方法,量子计算将迈向实用化
➤ 摩尔定律的黄昏与计算行业的黎明 曹政:谈谈基因的黑科技
➤ “美”才是物理的真谛:诺奖得主Wilczek谈量子力学、宇宙
➤ 微软研究院16位技术与思想领袖对2016年的16个预测
➤ 曹政:奇点临近,我们和硅谷相比真的很惭愧
➤ 科大讯飞刘庆峰:人工智能全球决战未来十年
➤ 贵阳大数据博览会:马云马化腾雷军周鸿祎等大佬都说了什么?
➤ 如何打造数据科学团队,你想知道的都在这里
➤ Facebook围棋项目负责人田渊栋:DarkForest与AlphaGo仍有差距
1.摩尔定律不是什么铁一样的定律,只是intel非要作死干下去,其他家跟进而已 2. 7nm 不是极限,因为5nm已经差不多了 3. 体积还可以做小,因为现在的方向是3D stack 4. 不太懂计算不需要能耗是什么意思? 5. 个人的经验是不要把学术界的预测想的太乐观,先不说开脑洞的移动端和消费类电子产品,因为这类产品是价格敏感的,替代超级计算机的领域目测20-30年还有可能。如果量子计算在未来10年内有戏,就不会只有google和NASA共同用dwave了 6. 个人认为目前刺激消费类电子产品的计算需求的关键在于更加前端的人机交互技术,比如出现象电影中的那种全息3D,然后的需求才是电量,电量只有在移动端才有意义,而移动端的电量又会被显示和大量的数据通信消耗很多,再然后才是处理器 7. 我比较弱,看完之后很多问题,先就这些
以前不知道格密码 大概看了一下,好像研究的人不是很多,不过看到王小云好像在做,所以可能比较有前途。
你在这里说了有效的量子破解手段,什么是有效?在短时间内破解为有效,或者说是在多项式时间内破解,再有可能是在低的指数时间内破解。不过这些都是computational complexity的范畴。而是否可破解是computability的范畴,只要是经典机暴力可破解的,那么量子机依然可以简单的模拟经典机的暴力算法破解之。
若说在多项式时间内无法被破解,很多密码系统都是如此。而RSA能被有效破解,在我看来,只是因为因数分解不是一个NPcomplete问题而已。"一方面,就是因为0和1可以被一个量子比特同时储存,一个量子比特需要用两个数描述其叠加态。N个量子比特可以储存2^N个数,算一算2^N可以是N的多少倍。" 不应该是普通电子计算机中的N个bit可以存2^N个数吗?求解民用计算机现阶段最大的作用只是作为一个互联网接入终端和游戏机,在这之上的日常需求依靠个人计算机来解决是不合理的,他们会参差不齐的占用资源,但是很难有规模有序保证这些系统稳定运转,所以我说运算能力过剩。未来的日常生活管理系统应该是集成式的,遍布整个小区,并且由物业公司负责保证其正常运转以及安全性的,也就是我说的终端时代,计算机都被埋在墙里埋在地下,人们随时随地通过简单的控制显示和接入授权设备就能获得属于自己的那部分计算力。而现在流行的“生态圈”普通用户需要很多的相关知识来保证其每一环节能正常运转,很难想象这种模式能够得到普及,顶多成为富人区的小众设备。对于破解密码来说都是复杂性的问题,因为穷举总是可以破解的,这显然是可计算的。不过确实对于复杂性要考虑小底数的指数算法和大指数的多项式算法在实际应用时的问题。虽然理论上研究不那么在乎。1. 可逆那一段我建议重写,或者干脆删掉。事实上量子机对散热的要求反倒更高。计算的可逆不可逆不是热力学的可逆不可逆,跟能耗高低没什么关系
2. 只有绝热量子机是肯定不够的 因为绝热机太慢了。
3. 业界并非只看好绝热机而不看好通用机。像google、IBM、MS这样的大公司,都在往通用量子机上大笔扔钱。像Google,人家不光只倒腾Dwave,还跟John Martinis一块倒腾transmon(一种sc qubit)。
量子计算的首要条件是相干态的维持,而热扰动的影响是退相干的最主要机制,所以需要低温;除非实现拓扑量子计算(交换服从分数统计的非阿贝尔任意子以实现量子逻辑门,这是目前实现退相干保护+容错量子计算的最佳理论方案)以小型化或者发明更好更有效的制冷/抽真空/电磁屏蔽技术。通用量子计算机是一个超出目前科技水平太多的技术。以至于大多数科学家更愿意研究具有特定量子结构的量子计算机,用来执行特定的量子计算功能。
这好像三体阿,不会最后证明问题不可解吧(通用计算机造不出来)
4. “大自然本身就是绝佳量子计算机”这句话是科学错误。
通用量子计算机是一个超出目前科技水平太多的技术。以至于大多数科学家更愿意研究具有特定量子结构的量子计算机,用来执行特定的量子计算功能"
那现在首先应该有破解rsa之类的量子计算机才对,这样熊猫FBI之类的机构就能破解加密流量了嘛,这个需求我觉得挺强的
传统计算机的运行是对bit(位)的操作,从一串二进制数变成另一串二进制数;决定两串二进制数如何转化的是逻辑门。
量子计算机的运行是对qubit(量子位)的操作,从一个量子态演化到另一个量子态,决定两个量子态如何演化的是量子门,其实质是一个遵循量子力学的Unitary Operator(幺正算符)。
以上特质决定了两种计算机的算法有根本不同。其一,qubit是可叠加态(这意味着量子计算机可以进行真正意义上的并行计算),而bit必须只能取0或1之一;其二,qubit的演化必须是幺正的,而bit之间如何变化没什么具体约束(一个简单的例子:量子态的演化必须是可逆的,而传统计算机里很多逻辑门都是不可逆的,例如与非门)。
作为量子算法的两个经典例子,傅里叶变换的Shor算法和最短路径的Grover算法,就应用了量子计算机的独有特性。两者的计算复杂度分别是和,而相应传统计算机算法的计算复杂度分别是和,差距一目了然。
简单补充+总结:1. 任意一个传统计算机算法,均有其相应量子计算机算法可模拟;2. 存在不能被传统计算机算法模拟的量子计算机算法(可以称为“真正”的量子计算机算法),如上述两例。因此,只要造出了位数和现有计算机相近的量子计算机,那么传统计算机算法被取代是必然的事情。可惜,这一天还遥遥无期。
首先要有优于常规算法的量子算法能够解决实际问题,这样研发量子计算机才有动力。在上世纪80年代就有一些量子算法出现,例如判断一个函数是常函数,还是平衡函数。但是这样的问题都是人为设计出来,因此也没有引起大家的重视。直到94年,Shor提出多项式时间的量子算法来解决大数分解问题,直击RSA公钥体系,从而带来量子计算研究的一个小高潮。紧随其后的Grove搜索算法,以及进入21世纪后的量子随机行走,都因为问题不够有意义和量子加速不高而只在学术界受到关注。近年来,Lloyd提出使用量子算法来做机器学习,可以在时间和空间上都带来指数加速。这一下,无论学术界和工业界都打了鸡血了,而且经过20年的积累,量子计算机也不再那么虚无缥缈。因此,谷歌,微软等科技公司都开始投入力量来争夺这个技术制高点。实用量子计算机的问世时间将比预测的更加提前。
简单说就是任意一个能在传统计算机上跑起来的算法,也能放到量子计算机上跑起来,计算复杂度不变。
证明的要点是任意一个逻辑门可以用量子门模拟。
其实这个结论是trivial的。如果它不成立反倒奇怪了。
计算的成本决定了不会。
从制造与运行上来看,量子计算机的单元的成本是传统计算机的单元成本根本无法相比的。现在的内存条,16G可能不到400元RMB,一颗1000块钱的处理上可能会集成10亿个晶体管,单次运算功耗也在向皮焦(pJ, 焦尔)迈进,人类半导体工艺上七十多年来的巨资投入使得传统计算机的单元造价和运行功耗低到了令人不可思议的程度。可以预见,在未来十年二十年内计算成本仍然会进一步下降。
量子计算机很厉害、很牛逼,但它的目的不是与传统计算机竞争。量子计算机对于人类的巨大吸引力在于:它可以解决某些传统计算机无法解决的问题。但是,这并不意味着量子计算的成本是低廉的。相反,量子计算的成本非常高昂。面临非凡的大自然的无数问题,作为人类已知的终极加速器,量子计算机是人类的福音,也或者是最后的稻草。它使得人类始终探索自然的脚步得以继续前行,使其将智慧的曙光洒向星辰大海。而正是这种意义的存在,使得人类不惜千金万银,也要将它从上帝的后院中给召唤出来。
实现有效的量子计算是非常困难的。
量子力学中的叠加和纠缠,使得多个量子比特能够提供指数级的状态空间。而单个量子门的操作则可以同时对指数级的状态进行翻转,极为高效地实现了大规模的、传统计算机领域所说的单指令多数据(SIMD)操作。这是量子计算机内凛的越大规模并行能力,也是说它牛逼的根源。而用专业术语来说,就是量子图灵机的计算效率超越了图灵机了,也就是量子计算机相比于传统计算机可具有量子加速。
有得必有失。并行是好事,但当每一步操作都需要并行而无法对单个数据直接操作的时候,如何设计一个量子算法来解决实际的问题就成为了一个极大的困难。理查德·费曼于1982年提出了使用量子系统模拟量子系统的构想;大卫·道奇三年后给出了量子计算机的数学模型——量子图灵机——以及第一个量子算法,然并卵,这只是用来猜谜玩的。但直到将近十年之后,皮特·肖尔才提出大数分解算法,可用于破解RSA加密(RSA加密是人类公认的最安全的加密算法),从而第一次证明了量子计算机可以用于解决实际的问题,也一举打消了当时人类对量子计算机实用性的怀疑。虽然此后不断有新的量子算法出现,如Grover搜索算法(类),量子化学模拟算法等,但数量远不可与传统算法相提并论。因为合格的量子算法有一个标准:它的复杂度须比已知的最好的对应传统算法的复杂度要低。这导致有人以为现在仍然只有五十个左右的量子算法。可想而知量子算法的设计之困难。
量子计算难以实现,更在于物理实现上的难。
第一,为了制造出量子比特,需要使用极为苛刻的环境条件。为了利用超导震荡电路的量子基态,超导量子比特需要被维持在20mK的温度(-273.13摄氏度)。离子阱量子比特中需要利用射频电磁场将单个或少数几个离子囚禁在很小的空间范围之内。而为了维持这样环境,巨大的经费开销是必不可少的。
第二,然而,即使有了如此苛刻的环境,量子比特在制造或操作的过程中总会有各种干扰、误差,从而导致量子比特的寿命极为短,操作的可靠性也十分低。当今世界上最好的超导量子比特寿命也只有200us左右,连1ms都不到,其门操作的错误率达到了约0.1%。而离子阱的寿命略长,但也就是秒的级别,操作的可靠性大约也在三个九左右。对比于CMOS器件(寿命可认为是无限长,各种计算操作的错误率只有不到),可知量子比特的脆弱。需要两方面的投资来解决这个问题。一是,利用更先进的设备,从而制造出参数偏差更小的量子比特,提供参数更为精准的环境条件来提高量子比特的寿命和各种计算操作的可靠性。这需要钱。另一方面,利用很多的量子比特来构建一个逻辑比特。这个过程可以简单地理解为小罗汉们叠出来的大罗汉更高、更牛逼,寿命更长,对错误的容忍程度也更高。小罗汉们叫物理qubit,大罗汉就叫逻辑qubit。量子计算的执行在逻辑比特的层面上进行。这个我们称为容错计算,或者说量子纠错编码技术。多少个物理qubit足够构成一个可靠的能够完成特定计算的逻辑qubit?不同的问题这个值要求不同,但对于分解2000位大数的肖尔算法而言,有人估算这个数字是4000左右吧。当计算所需的逻辑比特数目增加时,所需的物理比特更是同比增加。由此可见一个逻辑qubit是多么的昂贵,而这却仅仅是量子计算的一个基本单元。同样还是那个“有人估算”,为了分解2000位的大数,需要的逻辑qubit的数量是4000个。所以最后需要16000000——也就是大约两千万——个物理qubit。
第三,可纠缠的qubit的数量小。虽然我们的理想是两千万个物理qubit,但骨感的现实是:人类至多才能纠缠约20个qubit,今年5月由因斯布鲁克大学在离子阱qubit上实现。对于超导量子比特,这个数字是9。对于光子,这个数字是10+。而如果qubit之间没有纠缠,那么量子计算机根本无法获得前面所说的量子加速。为了增加可纠缠的qubit数量,这不仅需要苛刻的制造和运行环境,也需要外围辅助电路的变革和升级。当然,这也是钱。(注:D-Wave现在具有上千个qubit,但它们的纠缠属于自发纠缠,不具可控性,不在此讨论范围内。)
现在量子处理器仍处于研究阶段,为了能够制造具有两位数的量子芯片,研发投入已经达到了上十亿美元。随着技术的积累,可以预计制造成本会大幅下降。但就现在最有希望的两种技术而言,如果没有革命性的突破,其制造运行成本及纠错成本始终是个掣肘。两相比较之下,对于非巨型的计算,传统计算机比量子计算机更有优势,在绝大部分的中低端、大部分的高端应用上的会更有亲和力。
科学技术的进步正以人类难以估量的速度在进行。人工智能已经出现了自我学习算法。又有谁能够预料,在未来的百年之内会有何种革命性的突破。那时量子计算会是如何,现在的我们若想预料,那只是有若玄学。且看吧。
量子计算机的硬件成本跟电子计算差不多,并且在算法方面的理论基础也差不多的情况下,当然会取代。
只是那都不知道是什么时候的事情了。
个人觉得取代是必然的,只是在有生之年可能是看不到的。
结论就是:被取代是必然的,但是要发展起来还有很多的技术难点。
《三体》里面为什么智子干扰对撞机的结果就可以锁死地球人类的科技,可以说跟这个原因也有关系。
这个就是非计算机专业的人的理解了。
刚有汽车的时候,大多数人还是会骑马——我们的有生之年,电子计算机就是马,量子计算机就是汽车。
1. 经常看到媒体说一个量子比特不仅能储存0或者1,还能同时储存0和1.
严格的说这样说法错了。一个量子比特表示的是一个|0> 和|1>为基地的希尔伯特空间上的一条单位向量。如果是用这种表达方式来说那么经典比特表示的就是这样一条向量,其中a为0或者1,如果a为0,比特为1·,如果a为1 比特为0。因为a的取值只可能是0或者1,所以经典比特只能表达0或者1两个可能。但到了量子比特,一个比特就是,其中为虚数,并且。 所以一个量子比特的可能性就又取值的数量决定,而他的取值是整个复数空间上的单位向量,所以可能性有无限多种,而且可能的取值有阿列夫1(详见集合论,教你如何进入康德打开的地狱之门。)由此可见,我们其实可以将人类所有的信息写在单独的一个量子比特上。
但是!这不代表我们可以从一个量子比特上读取到无限的信息,因为读取这一操作会使量子比特坍塌到本征态上 也就是0或者1,所以,虽然我们能将无限的信息写入,但我们只能读取0或者1。
2. 量子计算机可以做经典计算机无法做的事情
这种说法是因为不知道什么是“可计算”什么是“计算复杂度”。所谓计算机能解决的问题,是指在不考虑时间和空间的情况下,能够解决,有写问题可能会用很长的时间,但最终能在有限时间内得出答案。而那些不可计算的问题,是指无法在有限时间内解决的问题。
在这种情况下,经典机无法计算的问题,对于量子计算机依然无法计算。所以两者计算能力相同。具体证明,参见图灵机停机问题。
3. 量子计算机更快
这个说法不准确,刚刚说了可计算。这个速度的问题就是复杂度。可惜的是对于经典机来说无法迅速解决的问题,也就是NP-complete,对于量子机依然是NP-complete。至少目前来说如此。所以,量子计算机虽然比经典机更快,但增加的速度无法达到明显效果。
4. D-wave是量子计算机
他不是通用机,所以意义不大。
最后说说量子计算机现在的情况。
2012年诺贝尔物理奖,内容就是单个的量子比特控制。去年英国人宣称可以有效的控制单个量子比特了。这确实是一个阶段性的成果,但距离实用的通用机还非常遥远。
我们现在的计算机的最小单位就是门电路,简单的说就是开关。现在量子机的情况,仅仅是只做出了第一个开关,想想看如何用你手边台灯的开关来构建一台计算机?挺遥远吧。
5. 量子计算机是不确定系统
量子计算机的计算结果确实是随机的,但这不代表他是一个不确定的系统。因为对于给定的输入,计算过程中整个量子系统任何时间的状态都是确定的,可以用一个张量积来表达。唯一随机的只有最后观测的这一步,会服从系统最后的概率分布坍塌的某一个本征态上。
算法”是数学问题,你可以用一支笔一张纸去实现,也可以用随便什么计算机去实现。举个例子,冒泡排序和快排序就是两种排序算法,和用计算机/纸张没任何关系。
量子计算机就算真的大行其道了,那也是在处理一样的数学问题。不管有什么样的计算机,NP问题永远是NP问题,能不能解决要看数学家的。
取代技术倒是有点可行性,如果量子计算机能够通用,速度和价格有足够的优势就可以取代
量子计算的优势在于大规模的并行计算。如果一个问题需要进行大规模的并行计算,并且能够进行大规模的并行计算,那么就可以采用量子计算。
所谓计算机,就是承载实现某种计算模式的工具。自古以来,就有很多种工具。现在数字电子计算机是以莱布尼茨二进制、布尔逻辑代数为数学基础,以门电路为硬件基础,以冯.诺依曼为工程体系结构的一种计算工具。
由于二进制的运算规则简单、门电路的制造简单、冯.诺依曼工程体系结构的清晰简洁,所以带来了今天的繁荣。现在的工作就是将某种问题映射到这个二进制的代数领域来,并进行求解。
人们也在尝试寻找其它的计算模式及其物理载体。
自然界存在众多的计算模式,退火过程就是一种,蚁群也是一种。其它的计算模式还有很多,包括曾经存在的模拟电子计算机背后的计算机制。顺便说一下,现在很多研究都是将问题映射到这些计算模式(比如模拟退火算法),再由数字电子计算机来实现这些计算模式。
因此,量子计算机有两个问题:找到一种计算模式,并在物理上实现之。
以前是利用量子的纠缠态模拟数字电子计算机的二进制和门电路,但是这么多年过去了,受到量子物理理论的限制,对量子纠缠态的观察和控制仍然是巨大的难题。
现在人们试图回到过去的模拟电子计算机这条路上。模拟电路,很难搞,因为物理器件的原因。而且,模拟电路一旦固化后,就不象门电路那样好修改或者可以修改。但是量子的模拟状态的变化过程(退火),就好得多。
至于问题的求解,这个倒是做得很多,无非就是把一个计算模式映射到另一个计算模式,比如把旅行家问题映射到模拟退火。相信量子退火的映射,不会比现在的映射更难。倒是问题的输入(量子状态的控制)有相当的难度。
2010年,加拿大一家名为D-Wave的公司宣布在麻省理工学院理论工作的基础上已开始生产所谓的全球首款商用量子计算机。与传统计算机相比,量子计算机能保证显著更快地解决一些问题,或者至少在一项案例下,量子计算机的速度呈指数倍提升。2013年,谷歌和美国航天局(NASA)等组成的财团购买了D-Wave的一台设备。
多年来,批评者认为,目前还不清楚D-Wave机是否真正利用量子现象进行计算。如果是,那么与比传统计算机相比,它的优势在哪里。
但本月初,谷歌研究人员小组发表了一篇论文,声称在他们的实验中,在他们的D-Wave计算机上运行的量子算法比与之做对比的经典算法快了1亿倍。
麻省理工学院电气工程和计算机科学系副教授斯科特·阿伦森已跟踪研究D-Wave计算机多年。MIT News 邀请他对谷歌研究人员的这篇新论文进行了解释。
谷歌研究人员的论文集中在两种算法上:模拟退火(simulated annealing)和量子退火(quantum annealing)。如何理解这两种算法?
模拟退火是当今使用的领先优化方法之一。它发明于20世纪80年代初,直接类比了已有7000年历史的金属退火工艺。加热金属时,原子随机扩散,而当慢慢冷却下来时,原子已错位,从而总能量减少。
在算法情况下,一大堆比特在1和0之间随机蹦跳,而不管是否对求解质量有影响。然后当“温度”降低时,比特越来越不愿意按照使求解更糟的方式蹦跳,直到最后,当温度为0时,比特只会达到使求解连续下降的值,即趋向更好的求解。
模拟退火或其他任何局部搜索方法的主要问题是,你可能会停留在局部最优。
如果你想达到某种能量景观的最低点,你可能会卡在局部最优的裂缝里,但你没有意识到,只要向上继续搜索,你会发现其他地方还有更低的山谷。
模拟退火已经试图解决上述问题:在温度高时,你有时愿意沿山坡向上移动。但是,如果山很高,即使是一座非常狭窄的山(可以想象成矗立在地上的一个尖峰),你可能需要花费指数量的时间,直到你碰巧翻动足够多的比特使你翻越该尖峰。
在量子力学中,我们知道,粒子可以通过势垒隧道(这是物理学家使用的语言,会有点误导。)来自麻省理工学院的法伊、戈德斯通和古特曼(Farhi, Goldstone, and Gutmann)2002年发表了一篇重要论文。
该论文表明,如果你的势垒确实是一个高高瘦瘦的尖峰,那么量子退火可以提供一个比经典模拟退火速度指数倍更快的速度。
经典退火会长时间陷在该尖峰底部,而量子退火可在多项式时间内越过该尖峰,然后下降到全局最小值。
D-Wave机利用了量子隧穿效应吗?
在现有的D-Wave芯片模式,有1000个左右的量子比特,但每8个形成集群。每个集群内的量子比特非常紧密地彼此连接,并且集群之间只有弱连接。
我认为,这是最好的量子隧穿行为证据,至少是在8量子比特集群的水平上。
这些研究结果显示,量子退火优于模拟退火的主要方式是利用以下事实:量子隧穿或任何与集群内所有量子比特相关的行为,可以同时翻动每个集群内的所有量子比特,而模拟退火是一个接一个地尝试翻动,然后发现这不是一个好主意,于是又把它们翻回去,并没有意识到,同时翻动8个的效果更佳。
此案例明确表明,D-Wave机所有功能的实现都要翻越这个8量子比特的势垒。当然,这仍然不意味着在任何事情上,它都比经典方式更快。
这是什么意思呢?
在计算机科学中,通常我们关心的是渐进加速:例如,“根据问题复杂度的运行时间有多长?这个时间是否是线性增长?是否是二次方地增长?”至于是否是5阶或10阶增长,我们不是很在乎,我们只关心它是N阶线性增长。
在谷歌论文里,研究人员讨论了两种经典的算法,都符合渐进性能:其中一种击败了D-Wave机的现实世界性能。
因此,除了模拟退火,还有两种比较经典的算法。其中之一是量子蒙特卡罗(quantum Monte Carlo),这实际上是一种经典的优化方法,灵感来自量子力学。
在这篇新的谷歌论文里,研究人员表示,尽管量子蒙特卡洛具有相同的渐近性能,但其常量对D-Wave而言好太多了,比模拟退火高出约1亿倍。
对此,我有两个问题。第一个问题是,做比较的问题实例基本上是为了解决D-Wave机本身的模拟问题。为使D-Wave机专用硬件的速度尽可能快,该设计花费了1.5亿美元。
因此,从某种意义上说,就模拟问题本身而言,与传统计算机相比,此专用硬件获得常数因子加速的结果是毫不奇怪的。
D-Wave机芯片里量子比特的组织形式是一个特定图形的拓扑结构。如果你想解决一个实际重要的优化问题,你需要以某种方式将该问题映射到上述拓扑结构。另外,映射时总是有丢失,而且这种丢失似乎完全有可能消灭前文提到的常数因子优势。
另一个问题是,现行的还有一种经典算法,即“塞尔比算法”(Selby’s algorithm)。
我想此算法首先是在我的博客上发布的。它是一种局部搜索算法,但能够搞清量子比特形成了集群。
谷歌论文发现,在所有测试的实例中,运行塞尔比算法的传统计算机完全优于D-Wave机。
如果我知道每8个量子比特形成一个集群,并且将其视为一个巨大的变量,那么我只需发现该变量的最佳设置即可。只有256 个案例(2到8个量子比特)需要审查,并且很快可以完成。
如果每个集群含有800个量子比特,那么你就无法做到这一点。
另一方面,创建互相联结的800个量子比特是一件超难的工作。即使你构建了这些量子比特集群,你也不清楚量子退火能否翻出势垒。
请记住,量子退火在高高瘦瘦的势垒情况下表现最好。当潜在势垒(在800量子比特集群下可能出现)变宽,那么量子退火也会遇到麻烦。
我们终于明确了D-Wave公司10-15年前所做设计决策的逻辑后果,即“尽可能快地获得尽可能多的量子比特”,而不必担心它们的寿命或一致性,不必担心错误修正,也不必担心解决一些我们在理论上坚信有量子加速存在的问题。
我把它视为拙劣的方法,而其他大多数人试图采取正统的方法。当然,拙劣的方法有可能比正统的方法更快达到目的。在科技历史上,有很多先例证明拙劣的方法更快达到目的。
但是就当前的问题而言,拙劣的方法还没赢得胜利。
。
谷歌周三宣布,他们有证据表明,那台采购于2013 年的量子计算机确实能够运用量子物理学解决在人工智能领域至关重要的数学问题,运算速度比传统计算机要快得多。
各国政府,以及业界领先的计算机公司,如微软(Microsoft)、IBM、谷歌(Google)等,都在尝试研发所谓的量子计算机,因为利用量子力学的独特属性来表征数据,将能够释放巨大的数据处理能力。
计算机巨头们相信,量子计算机可以让它们的人工智能软件性能变得更加强大,并为材料科学等领域带来巨大飞跃。
美国国家航空航天局希望能借助量子计算机制定火箭发射时间表,以及模拟未来的任务和宇宙飞船。
迪帕克·比瓦斯(Deepak Biswas) 说:“这确实是一种颠覆性技术,能够改变我们做一切事情的方法。”他是来自位于加利福尼亚山景城的美国宇航局艾姆斯研究中心(NASA Ames Research Center)的探索技术主管。
在研究中心的媒体通报会上,比瓦斯提及了在这个项目上与谷歌的合作,即在2013年收购了D-Wave系统公司(加拿大初创企业,宣称研发出售了“全球第一台商用量子计算机”)后所从事的一些工作。
这台计算机安装在加州山景城的美国宇航局艾姆斯研究中心,采用一种被称为量子退火器(Quantum Annealer)的超导芯片来对数据进行操作。量子退火器采用一种适用于“最优化问题”(Optimization Problems)的算法进行硬编码,这种算法在机器学习和人工智能软件中很常见。
然而,量子物理学家对D-Wave 的芯片有不少争议。无论是这家公司的研究者还是其他研究者,一直以来都无法提供令人信服的证据证明,D-Wave设备能够成功进入量子物理的领域,击败传统计算机。
谷歌位于洛杉矶的量子人工智能实验室的负责人哈特穆特·乃文(Hartmut Neven)在周三宣布,他的研究团队已经找到了一些可靠证据。
他们将安置在美国宇航局的D-Wave计算机,与拥有单个处理器的传统计算机之间,设置了一系列的比赛。乃文说:“在一个特定的、精心设计的概念证明问题上,量子计算机实现了1 亿倍的速度提升。”
谷歌周三晚也在线发布了一篇介绍测试结果的研究论文,但这篇论文并没有经过正式的同行评议。乃文说,这篇论文很快就会发表在同行评议的期刊上。
谷歌的结果是惊人的。但即使这些结果被验证了,也只是为D-Wave作了一部分平反。在与量子计算机的比赛中落败的计算机使用的是与D-Wave芯片相似的算法执行代码,来解决相关问题。
然而,已经有另一种算法可以让传统计算机,在与量子计算机的竞赛中,更有竞争力,甚至可能胜出,即利用D-Wave设计中乃文所称的 “漏洞(bug)”。
乃文表示,他的团队所做的此次测试仍然是非常重要的,因为与能够处理更大体量数据的量子计算机竞争时,传统计算机将不再能够利用这种“漏洞”。
去年夏天,谷歌这个硅谷巨头在圣塔芭芭拉(Santa Barbara)建立了一个新的实验室,由一流的学术研究者约翰·马蒂尼(John Martinis)领导。马蒂尼也从事于量子计算硬件的研究,但不像“退火器”芯片那样只局限于“最优化”问题。
一般而言,量子计算机能够经过编程来解决任何问题,会更实用,但预计需要花费很长的时间才能使之完备。政府、大学实验室、微软以及IBM也都在从事这项技术的研究。
谷歌公司的工程副总裁约翰·詹南德雷亚(John Giannandrea)说,如果量子退火器能够运用到实际中,他们会找到许多用法来加强谷歌的机器学习软件。
“我们已经遇到了一些无法用现存的电脑解决的产品问题,即使我们有许多电脑也无济于事,”他说道。
但詹南德雷亚也承认:“可能要经过数年的时间,这项研究才能对谷歌产品产生重大的影响。”