问题:量子计算被视为突破传统计算能力边界的重要方向,但其迈向可用与可复制的商用系统,长期受制于“算得快”与“算得准”的矛盾。
量子比特可以处于叠加态并实现并行计算潜力,但叠加态极易受环境噪声、材料缺陷、热扰动等影响而退相干,导致计算错误累积。
对超导量子路线而言,量子比特在退相干前可执行的有效操作次数,直接决定了系统是否具备运行复杂算法与开展有效纠错的可能。
原因:过去十余年,超导量子比特在材料与工艺上形成相对固定的主流组合,即蓝宝石基底配铝电路。
该体系工艺成熟、易于集成,但铝表面微观缺陷带来的能量损耗问题突出,使相干时间难以持续提升。
此次普林斯顿团队实现“毫秒级寿命”的关键,在于对传统材料体系的系统性重构:用高纯度硅替代蓝宝石作为基底,并以金属钽替代铝制作量子电路。
研究表明,钽的晶体结构更致密、表面缺陷密度更低,可显著抑制损耗;硅作为成熟半导体材料,则有利于制造一致性提升,也为未来规模化工艺衔接提供现实基础。
值得注意的是,团队解决了“在硅上高质量生长钽薄膜”的长期难点,实现材料界面的高质量与高平整度,从源头降低了退相干通道。
影响:相干时间提升至1毫秒以上,意味着单个量子比特在保持量子态稳定的时间窗口内可以完成更多门操作与测量,为更复杂的算法执行和纠错循环争取宝贵余量。
尽管毫秒仍是极短时间尺度,但对于超导体系而言,这是影响系统可用性的“关键增量”。
从产业角度看,量子计算性能由两条主线共同决定:一是量子比特规模,二是单比特与两比特门的错误率及其随规模扩展的可控性。
近年量子芯片比特数持续攀升,国际上曾以几十比特芯片展示特定任务优势,国内也在百比特级超导量子原型机上取得进展。
但实践反复证明,单纯堆叠物理比特并不能自动带来可用算力,若退相干和门误差无法有效压低,系统将很快被噪声“吞没”。
因此,此次材料体系带来的寿命跃升,具有补齐“可靠性短板”的现实意义。
对策:面向可用量子计算,下一步仍需在“硬件—纠错—软件—应用”全链条协同推进。
一是继续围绕材料、界面、器件结构和封装互连等关键环节开展工程化攻关,推动低缺陷薄膜制备、工艺一致性与良率提升,并建立可复用的质量评估与标准体系。
二是把延长相干时间与降低门误差、抑制串扰、提升读出保真度统筹起来,通过更稳定的控制电子学、更优化的布线与隔离设计,在系统级减少噪声源。
三是加速量子纠错从实验验证走向工程实现。
业内普遍认为,量子纠错能否在真实硬件上持续“压低逻辑错误率”,是通用容错量子计算的重要门槛。
相关研究进展显示,通过更大规模、更高质量的物理比特阵列和更成熟的纠错编码,有望逐步把系统推入“可纠错、可扩展”的区间。
四是夯实软件工具链与应用方法学,围绕量子化学模拟、材料计算、组合优化等相对明确的方向,形成可迁移的算法模板、误差缓解策略与混合计算流程,降低产业试用门槛。
前景:从发展节奏看,通用容错量子计算机仍可能需要较长周期,但“先可用、再通用”的路径正在清晰:一方面,通过提升相干时间、降低噪声和提升一致性,超导路线有望在近期实现更稳定的中等规模系统;另一方面,以量子—经典混合架构为代表的应用形态,或将成为量子计算释放早期价值的关键方式——即由经典计算承担大部分通用任务,把少数对量子优势敏感的核心子问题交由量子协处理器处理,在药物研发中的分子能级计算、材料性质预测等环节探索边际增益。
随着材料体系迭代、纠错能力增强和软件生态完善,量子计算的应用边界有望从“特定任务演示”逐步走向“可重复的行业场景验证”。
量子计算的发展是一场系统性的技术竞赛,既需要硬件层面的不断突破,也需要生态层面的整体构建。
普林斯顿大学的这一成果表明,通过材料创新和工艺突破,传统的技术瓶颈是可以被逐步突破的。
当前,全球量子计算产业正处于从科学验证向工程应用的过渡阶段,在比特数量、比特质量、纠错能力等多个维度同步推进。
可以预见,随着硬件性能的持续改善、应用场景的不断拓展、人才队伍的逐步完善,量子计算将从实验室走向实际应用,为人类解决更多复杂计算问题提供新的可能。