翻墙以后打不开google网页
北京时间 2024 年 12 月 10 日,谷歌公布了他们在量子计算上的最新进展,他们正在研发中的一块被命名为 Willow 的芯片,取得了两项重大成果,第一项成果是在解决某些特定计算问题时的速度有了大幅度的提升;第二项成果是大幅降低了错误率,并且是计算量越大,错误率反而越低。
在这次新闻事件中,我看最多人感兴趣的就是那个所谓 Willow 的计算速度是传统电子计算机的 10 的 25 次方倍,换句线 分钟搞定的问题,如果用地球上最快的超算,用远远超出宇宙年龄的时间也算不出来。听上去好夸张,好厉害啊,大家都在津津乐道于此。
2019 年 10 月 23 日,谷歌宣布,他们的量子计算机悬铃木,实现 Quantum Supremacy,很多地方都翻译为实现“量子霸权”,这个翻译霸气十足,与很多人心目中的美国气质很贴。但我觉得更好的一个翻译是“量子优越性”。具体来说,谷歌宣布首次利用量子计算机,仅用 200 秒就完成一个计算任务,而同样的任务,用地球上最快的超算来计算,需要 1 万年。
大家有兴趣的线 年多前的新闻,当时各大自媒体的反应比今天还炸裂,动不动就是计算机产业要革命了,银行服务器瑟瑟发抖了,加密币要崩盘了,因为传统密码都要被量子计算机轻易破解了等等。
但是,5 年多过去了,你看这些情况发生了吗?比特币的价格甚至从 5 万元人民币一枚涨到了 70 多万元人民币一枚。
然后只过了一年多,也就是 2020 年 12 月 4 日,中科大的潘建伟教授团队在《科学》杂志上公布了中国量子计算机的最新成果。由中科大发明的“九章”光量子计算机首次实现了量子优越性,并且,我们的这台九章,比谷歌的悬铃木,速度要快 100 亿倍。
2021 年 10 月翻墙以后打不开google网页,中科大的“九章二号”诞生,速度比九章又快了几百倍。如果跟传统超算相比,九章二号解决特定问题的计算速度要快 10 的 24 次方倍,也就是说,九章二号算 200 秒,传统超算用超过宇宙年龄的时间也算不出来。你看,这个超过宇宙年龄的说法不稀奇吧。
所以你看,跟传统电子计算机比速度,有意思吗?其实没啥意思,就是给外行人看热闹用的。量子计算发展到今天,内行人早就不太关心和传统计算机比速度了,因为这种比较其实不对等。或者这么说,在解决某些特定问题上,量子计算比电子计算哪怕快无穷大倍,也没啥稀奇的,比较速度实在没意义。
你发现没,在我前面的叙述中,我每次讲到计算速度时,都要强调“特定问题”,这个定语非常非常重要,你以后凡是看到某些评论在讲到计算速度时,不提特定问题的,都可以认为这个评论很水。那么,这个特定问题到底该怎么理解呢?
这次谷歌宣布 Willow 解决的那个特定问题叫做 “RCS随机线路采样基准测试”,而九章解决的那个特定问题叫做“高斯玻色取样”,这些名词术语都很高能,普通人几乎听不懂。
但我可以给你举一个比较容易理解的例子,这个例子的本质和刚才说的那两个听不懂的特定问题是一样的。
假设我们把 500 个小球从台阶的高处往下倾倒,所有的初始条件都已知。你不用管到底有哪些初始条件,细节问题其实不重要,我们只需要从宏观上理解这个问题的实质内容。现在,我们要求解的是,当最终所有的小球都停在台阶下方不动时,每个小球的位置在哪里?
传统计算机要怎么算呢?先建立一个计算小球运动路径的数学模型,这个数学模型中包含了所有可能的变量,因为小球与小球之间会发生碰撞,显然,小球的数量越多,计算量就会呈现指数级增长。
但是,假设我现在发明了一台叫做“小球计算机”的机器,这台机器就是专门针对解决上面那个问题发明的。这台机器实质上是一个模拟器,它可以在一个手掌大小的盒子中模拟小球滚落的情况,我们假设模拟的结果就是能够精确对应现实中的结果,最后只需要做一个等比例的放大即可。
你不要跟我钻牛角尖说这不可能啊,这样的模拟器做不出来的。注意,我这里只是举一个理想化的例子,目的是帮助你理解什么叫解决特定问题。你看,现在我用这个“小球计算机”来计算上面这个问题,不管是 50 个小球,还是 500 个小球,反正我都是只要跑一次,也就几秒钟,就能出结果。并且,我这个小球计算机能模拟的数量如果从 500 个增加到 1000 个,对于小球计算机来说,计算时间是一样的,都是跑一次花的时间。但是,对于电子计算机来说,那从 500 个小球到 1000 个小球,这个计算量增长得可能就是几百亿倍都不止了。
不过,九章和谷歌 Willow 所解决的特定问题比刚才这个例子更复杂一些。刚才那个例子中,只要初始条件完全一致,最终的结果也完全一致,小球最终在地面上的分布也是确定的,毕竟小球遵循的是确定的牛顿运动三定律往下滚。但是,如果小球每次碰撞后,哪怕初始条件完全相同,也会随机出现不同结果。那最终小球在地面上的分布也就是不确定的了,计算结果只能告诉你,哪块地方的小球会密集一点,哪块地方的小球会稀疏一些,这种计算结果被称为概率分布。九章和 Willow 解决的特定问题都是结果为“概率分布”的问题。
我记得九章计算机刚问世的时候,网上有很多人都在质疑,九章解决问题的方法到底是计算还是实验啊?很多人认为,九章只是把一个计算问题巧妙地转换为了一个模拟实验,只不过这个模拟实验的技巧比较高超,要利用量子纠缠效应。其实,谷歌的悬铃木也好,这次的 Willow 也好,他们所谓运算的实质和九章也是一样的,都是巧妙地把一个计算问题,转换成了用量子的特殊性质完成一个量子模拟实验,实验结果就是电子计算机的运算结果。
到底是计算还是实验,这个问题我今天不想展开讨论。我认为量子计算机的这种特殊的运行方式就是一种计算,尽管看上去像实验,但它和物理实验的最大不同在于,量子计算机的这种实验是可编程、可精确重复的。满足了这两个要求,就是一种计算。
但是,我们也都能感受出来,量子计算机的这种计算和电子计算机的计算好像有些不同,对的,这就是为什么行业人士把电子计算机的计算叫做“通用计算”,而量子计算机的计算叫做“特定计算”,就是因为量子计算机它目前还不能像电子计算机一样做最基本的加法运算。
听到这里你可能会有点儿吃惊,什么,这么神乎其神的量子计算机居然不能算 1+1=2 !是的,确实算不了,如果能做加法运算,就是一台通用计算机。因为加法运算就是通用计算的最基础运算,不管多复杂的算法,最终都可以还原成加法或者加法的逆运算。
如果有一天,中科大或者谷歌宣布,他们用量子计算机算出了 1+1=2,且速度碾压了电子计算机,那才是真正的革命宣言,那才是奇点来临。而现在,还远没有到这个时候,现在就在惊呼什么英伟达完了、比特币完了、银行完了的人,在我看来,就是哗众取宠。
但是,讲到这里,你千万不要误会,我可没有在贬低谷歌 Willow 这次取得的成就。特定计算虽然不是通用计算,但特定计算也很有用,也非常了不起,可以帮助人类解决很多电子计算机解决起来极其困难的问题。请记住,量子计算机目前的运算方式,很像是做某种模拟实验,因此,对于一些我们看上去似乎有无穷无尽种可能性的问题,量子计算机都有望快速解决,因为真实世界中其实并不存在无穷大种可能性,可能性再多也是有尽头的,而量子计算最不怕的就是可能性多。
比如说天气预报。尽管我们现在用 AI 已经预报得不错,但极其消耗算力和依赖大数据,但如果有一天量子计算机可以模拟大气中的每一个分子的运动,那天气预报将变得极为简单且精确。
再比如医药研发。寻找某种特定的分子结构用以治疗某种疾病,量子计算就可以几秒钟之内试遍所有的可能性,找到答案。
再举个更生活化一些的例子,无人驾驶。假如未来道路上的每一辆车都是无人驾驶的,那就可以把每一辆汽车看成是一个运动的粒子,几百万个运动的粒子如何管控才是最佳策略呢?要精确管控这几百万个粒子的运动,对运算速度的要求是毫秒级的,因为任何一条指令都会立即引起连锁反应,电子计算机的算力很难跟上。这时候,或许量子计算就能发挥长处,它可以瞬间模拟出所有可能的情况,并从中选取最佳策略。
再比如,未来的战场决策。两国各自出动几百万架无人机对决,如何瞬间给每一架无人机下达最佳指令,量子计算就可能大展神通,以毫秒级为单位实时模拟出每一条指令下去可能的结果都是什么。
Willow 这次解决的那个特定问题,叫做“RCS 随机线路采样基准测试”,这到底是个什么样的问题其实没必要展开说,我大致看了下 12 月 9 日谷歌团队在《自然》杂志上发表的论文,并不算太难懂,以我的理解,它解决的这个问题很像是量子计算机的自检。就是自己计算自己有可能出现的状态概率分布,拿这个问题去和电子计算机比赛,就好像它自己既是运动员又是裁判员一样,比赛成绩相差悬殊,你可以说是不公平,也可以说是天经地义。但是,它解决的这个问题对于量子计算机来说,却极其重要,有点像是一个程序员终于在屏幕上跑出了一个“Hello World”一样,学过编程的人都知道,hello world 意味着环境搭建成功,这是从 0 到 1 的变化。
当然,如果只是这一项成就,我可能还不会把它比喻为从 0 到 1 的变化,它取得的第二项成就意义更大。这第二项成就是,它把量子运算的错误率大大降低了。之前困扰量子计算机发展的一个很大难题就是错误率。
这里顺便说一下,九章和 Willow 虽然都叫量子计算机,但它们的底层架构是不同的。九章是用光量子作为基本计算和存储单元,换句话说,如果你跑到九章面前,你会看到很多的激光束和无数个透镜,这个架构的好处是,除了探测部分需要在超低温环境下工作,主体部分可以在室温下工作。
但谷歌的 Willow 是以超导材料为基础的,它利用的是超导电流的量子特性,原理特别复杂,反正 Willow 中并没有我们想象中的一个个的单个量子。超导架构需要计算机的主体必须工作在超低温环境中,才能维持超导状态。这两种不同的架构,各有各的优缺点,这不是我们今天这篇文章的重点。
我们的重点是,这两种架构都有一个很棘手的难题,那就是量子的叠加态和纠缠态的特性很容易丢掉,导致计算出错,而 Willow 的这种超导架构比九章这种光量子架构更容易出错。假如我们要列一个超导和光量子的优缺点对比表的话,则一定会把出错率高作为最大的几个缺点之一标注在超导,也就是 Willow 这边。
但是,这次谷歌却宣布,他们找到了一种方法,可以使得量子比特的数量规模越大,出错率越低。具体怎么做到的我暂时也没弄懂,大概就是把量子比特组成一个比如说 3x3 或者 7x7 的方阵来当作是一个量子比特参与运算,这样抱团运算后,出错率就显著降低了,而且方阵越大,出错率越低,可能是这样一个原理。
这项成果有里程碑意义。因为过去,出错率会随着量子比特数量规模的增大而增大,这就导致,把算力扩得越大,出错率也越大,这使得整个系统变得不可扩展。我打个比方,我们知道化学火箭之所以低效,是因为火箭必须带着燃料一起飞,燃料把绝大多数的推力都用在了把自己给推上天,但好在还能剩下一点儿推力留给载荷,假如说很不幸地,过了某个临界点后,燃料能产生的全部推力都推不动自身的重量,那火箭的起飞重量就会被锁死在那个临界质量上。
超导架构的量子计算机一直遇到类似的难题,当量子比特的数量超过某个临界点后,出错率就会变得不可接受,而且量子比特数量越多,出错率越大,就好像火箭燃料推不动燃料本身一样。但这次的 Willow,谷歌宣布解决了这个难题。用他们的术语来说,就是把出错率降到了“临界量子误差阈值”以下,这样一来,就扫清了大规模扩展量子比特数量的根本性障碍。
这是一个非常重要的进展,尽管我现在还没有看到很多同行评议,但我猜,这项成就可能意味着超导架构从原来与光量子架构相比各有千秋,变成了略胜一筹,克服了自身的一个最主要的缺点。说实话,在 Willow 出来之前,在量子计算这个领域,中科大是领先谷歌的,但这次谷歌搞出的大新闻,让谷歌反超了中科大。不过,我国的潘建伟教授团队接下去会不会也搞出一个大新闻,重新追平局面,这个就说不准了。
好了,关于谷歌的 Willow,我差不多把自己所知的都讲完了。结论就是一句话:Willow 厉不厉害?厉害,但没有厉害到让谷歌的股票可以因此大涨 10% 的程度,更没有厉害到可以冲击比特币的程度。量子计算机离很多自媒体幻想的那个未来,还有很远的路要走。