说起量子计算,最近有个事挺让人心动的。牛津大学的一位教授蒂姆·帕尔默,他是个混沌理论专家,在气候科学上很有名。这回他可是放大招了,在顶刊上发文,要给量子力学的数学根基动刀子。这事儿一出,学术界跟搞量子计算的行业里都炸锅了。 量子力学的地位有多牛?那可是经历过无数实验考验的理论,半导体芯片、核磁共振这些现代技术的底层逻辑全是它在撑着。正因为这样,帕尔默提出来的修正方案才这么有杀伤力。他这个方案叫“理性量子力学”,核心思想就是把量子理论里用的希尔伯特空间给离散化改造一番。以前大家默认这个空间是连续的,量子态的维度随比特数指数级增长,这也是为啥量子计算机理论上能秒杀经典电脑。帕尔默不这么看,他觉得连续性就是个理想化的数学玩意,现实里根本就没有无限和无穷小这种东西。他在声明里直接把大卫·希尔伯特的话搬出来了:“无限这种东西在现实中根本找不到。” 他接着说,大自然讨厌连续统,量子态里的信息量其实只是跟着比特数线性增长的。要是纠缠的比特数超过某个阈值,整个希尔伯特空间就没法正常运作了。帕尔默算出来这个临界值大概是200到1000个量子比特。你算算看,现在破解2048位RSA加密需要的量子比特数是4099个,这远远超过了那个阈值。这就意味着如果帕尔默的理论是对的,量子计算机可能还没破解密码呢,自己先撞上限了。 这场争论其实早就开始了。上世纪2000年代的时候,物理学家罗伯特·阿利基就开始喷量子容错计算的数学假设不靠谱了。他觉得那些严格的数学条件在现实物理世界根本没法满足。他把量子计算形容成是炒作、宣传加上缺乏批评的后现代科学。到了2020年,法国物理学家米歇尔·迪亚科诺夫写了本书《我们能拥有量子计算机吗?》,在书里他说得更难听:造可扩展的量子计算机就像是造一面只有一个原子厚的墙,简直是工程上的天方夜谭。 图灵奖得主莱昂尼德·列文也站出来说了几句硬话。他指出量子方程得在几百位甚至几百万位小数的精度下还得成立,“但咱们从来没见过哪个物理定律能在超过十几位小数上还管用”。这跟帕尔默对连续统的质疑在逻辑上是相通的。甚至诺贝尔物理学奖得主赛尔日·阿罗什还跟让-米歇尔·雷蒙德一起发文质疑量子纠错在现实中的可行性。 虽然质疑声不断,但主流科学界对量子计算还是挺乐观的。谷歌、IBM还有微软这些巨头在硬件上砸了不少钱,纠错码的实验也有进展。帕尔默的理论虽然有新意,但还是比较推测性的。标准量子力学已经通过了几乎所有实验的检验了,“理性量子力学”跟传统的在小规模系统上结果是一样的,只有在数量突破某个节点后才会分叉。这种分叉让早期实验验证变得很难。 帕尔默自己也承认,他的理论在跨领域上很有美感。他认为宇宙本身就是个在分形吸引子上运转的混沌系统,“理性量子力学”正是这幅大图景的一部分。不过这也让很多同行保持了观望的态度。他在论文里给了个验证方案:等量子硬件进步到能逼近几百个高质量纠错量子比特的时候,用肖尔算法当探针去测试优势会不会突然消失。 这事儿还没定论呢,RSA加密系统到底安不安全还悬着呢。唯一能确定的是:不管帕尔默的理论对不对,它已经逼着科学家们重新审视了一个他们很久没好好想过的问题——量子计算机用的那套数学工具真的在物理上毫无破绽吗?