Science重磅!量子计算已经跨过是否可能,进入如何造出好用的量子计算机

我们正处在一个类似 1950 年代晶体管问世早期的关键时刻,量子技术已从实验室的精密玩具转变为即将改变世界的工业引擎,但仍需跨越工程化的死亡之谷。

一份由 David Awschalom、Hannes Bernien 等全球顶尖量子科学家联合撰写的综述《量子信息硬件的挑战与机遇》登上了《科学》杂志。

这不仅是一篇学术回顾,更像是一份站在技术分水岭上的战略蓝图。

文章以极为冷静和务实的视角,审视了过去十年量子技术的爆炸式增长,并用经典的半导体发展史作为镜像,推演了量子计算、传感和网络未来的演进路径。

量子技术正在经历从科学发现导向向系统工程导向的深刻转型。

在这个过程中,我们不仅要关注那些令人眼花缭乱的物理突破,更要理解那些隐藏在芯片背后的材料科学、布线工艺、控制系统以及系统架构的艰难取舍。

历史的回响与摩尔定律的启示

回望计算机的发展史,我们能找到解读当下量子技术困境的钥匙。

1971 年,英特尔推出了 4004 处理器,这是人类历史上第一款商用微处理器。

它拥有 2300 个晶体管,采用 10 微米工艺,时钟频率仅为 750 kHz。

虽然它开启了一个时代,但若以今天的标准看,其性能简陋得令人发指。

五十年后的今天,NVIDIA 的 Blackwell GPU 集成了 2080 亿个晶体管,算力提升了难以计数的倍数。

这种从 2300 到 2000 亿的跨越,并非一蹴而就,而是依赖于无数次底层材料和工艺的革命。

我们经常谈论摩尔定律,却往往忽略了支撑定律背后的艰难细节。

比如,为了突破平面晶体管的极限,业界引入了 FINFET(鳍式场效应晶体管);为了解决栅极漏电,科学家用铪基高介电常数材料取代了沿用几十年的二氧化硅;为了实现极紫外光刻(EUV),人类从 1990 年代中期就开始基础研究,直到 2019 年才真正投入量产。

这种漫长的周期正是量子技术目前的写照。

今天的量子计算机原型机,不论是谷歌的超导芯片还是哈佛的中性原子阵列,其技术成熟度(TRL)可能正处于类似 Intel 4004 的阶段。

它们已经能工作,能在特定环境下演示算法,但距离承载商业价值的容错计算还有巨大的鸿沟。

要实现能破解 RSA 密码或模拟复杂药物分子的通用量子计算机,我们需要数百万个物理量子比特,且门保真度要远超 99.9%。

而目前的系统仍处在几十到几百个量子比特的规模,且充斥着噪声。

正如经典计算每秒百万次指令的成本在过去 75 年里下降了 14 个数量级一样,量子计算也必须经历类似的工程化洗礼。

这不仅是物理学的挑战,更是材料学、制造工艺和系统集成的大考。

为了客观评估当前的技术状态,研究人员甚至使用了大型语言模型对各大技术路线进行了 TRL 评分。

结果显示,虽然在量子传感等领域部分技术已接近商用(TRL 8-9),但在通用的量子计算领域,即便是最领先的超导和离子阱路线,也大多处于从实验室原型向工程验证过渡的 TRL 6-7 阶段。

这说明我们仅仅是确立了基本原理和原型,离真正的工业化还有很长的路要走。

超导量子计算与纠错曙光

在众多技术路线中,超导量子比特无疑是当前的领跑者之一。

它们本质上是人造原子——由电感、电容和约瑟夫森结组成的微波谐振电路。

这些电路虽然尺寸宏大(相对原子而言),但在极低温下却表现出量子化的能级特性。

2025 年的超导量子处理器已经相当壮观。

最先进的芯片上集成了超过 100 个物理比特,并配有同样数量的可调耦合器,用于控制比特间的相互作用。

这种二维阵列结构展示了惊人的操控精度:单比特门保真度达到了 99.95% 至 99.99%,双比特门也逼近 99.9%。

超导路线最大的优势在于速度。

其量子门操作仅需 10 到 40 纳秒,这使得系统的纠错周期可以快至 1 微秒左右。

这种极高的时钟速度是其他路线难以企及的。

最近的实验更是展示了令人振奋的纠错进展:将表面码(Surface Code)的距离从 3 提升到 5 再到 7(分别对应 17、49 和 97 个物理比特),逻辑错误率随之每一次减半。

这验证了量子纠错的核心假设:只要物理比特足够好,增加比特数量就能压制错误。

在距离为 5 和 7 的实验中,逻辑比特的表现已经超过了单个物理比特,这是通向容错计算的关键里程碑。

然而,超导路线面临着严峻的物理限制。

首先是尺寸问题,每个量子比特大约占用 1 平方毫米的面积,如果要制造包含数百万比特的机器,芯片尺寸将大得惊人。

其次是“线缆灾难”。目前的架构通常需要 1 到 3 根线来控制一个比特。当比特数达到一万个时,所需的线缆和接头将塞满整个稀释制冷机,热负荷也会导致制冷失效。

目前的解决方案是将多个制冷机联网,或者制造更大的“超级冰箱”,但这显然不是长久之计。

硅基自旋与原子阵列的异军突起

如果说超导是宏观电路的量子化,那么硅基自旋量子比特就是将半导体工艺推向极致的产物。

这类量子点通过栅极电压在硅晶体中束缚单个电子,利用电子的自旋作为量子比特。

硅基路线最大的诱惑在于其与现有芯片制造工艺的兼容性。

2025 年,研究人员已经能在 300 毫米标准晶圆厂中制造出性能优异的量子点器件。

由于尺寸极小,硅基量子点在单位面积上的集成度潜力巨大。

而且,不同于超导必须在近乎绝对零度的 10-20 mK 环境下工作,硅基自旋比特正在尝试向“高温”发起挑战——在 1 开尔文(1K)的温度下,研究人员已经实现了保真度 99.8% 的克利福德门。

虽然 1K 听起来依然很冷,但相比 10 mK,制冷功率提升了几个数量级,这为集成控制电路提供了宝贵的热预算。

当然,挑战依然存在。

硅和锗的能谷分裂(Valley Splitting)问题会导致量子态泄漏,影响控制精度。

此外,如何在极小的空间内解决布线串扰,也是工程上的巨大难题。

另一边,中性原子和离子阱技术则代表了自然界原本的纯净。原子是完美的,因为全宇宙所有的同位素原子都是一模一样的,不需要像制造人造电路那样担心工艺误差。

离子阱利用电磁场将带电原子悬浮在真空中,拥有极长的相干时间。

目前最大的离子阱系统已经捕获了数百个离子。为了解决扩展性问题,量子电荷耦合器件(QCCD)架构被提出,即让离子在芯片表面的不同区域间“穿梭”移动,实现计算和存储的分离。

中性原子阵列则是近年来的黑马。

利用光镊技术,科学家可以在真空中用激光捕获并排列成千上万个原子。

由于光镊可以通过全息技术在显微镜视野内产生数万个光阱,这种方案在扩展性上具有天然优势。

通过激发原子到里德堡态(Rydberg State),原子间可以产生强相互作用来实现量子门。

目前,基于中性原子的系统在量子模拟领域已经独领风骚,在通用计算上也正快速追赶。

那些阻碍未来的四座大山

尽管各条路线捷报频传,但所有平台在通往大规模商用的路上,都面临着四个共同的根本性挑战:材料与制造、布线与互连、校准与控制、以及尺寸与功耗。

材料科学是隐藏的瓶颈。

无论是超导电路中的约瑟夫森结,还是光子芯片中的波导,材料表面的微观缺陷都是噪声的温床。

在经典半导体中,我们可以容忍一定比例的缺陷,但在量子世界,一个原子的杂质或表面的氧化层都可能破坏脆弱的量子相干性。

例如,超导量子比特正在引入钽、铌等新材料,并尝试异质集成工艺;光子芯片则在探索铌酸锂、碳化硅等低损耗材料。这些都需要在标准晶圆厂中开发全新的工艺流程,就像当年引入铜互连或高 K 介质一样艰难。

布线是物理空间的噩梦。

想象一下,要控制一百万个量子比特,如果每个比特需要一根线,那将是一场灾难。

这被称为“布线的暴政”。解决之道在于信号复用和集成控制。就像现代显示器不需要为每个像素拉一根线一样,量子芯片也需要多路复用技术。

更激进的方案是将控制芯片(低温 CMOS)直接与量子芯片堆叠在一起,但这又带来了散热问题。

校准是西西弗斯的巨石。

人造量子比特每一个都略有不同,随着时间推移参数还会漂移。

对于拥有数千个比特的系统,如果每天早上都要花几个小时来重新校准每一个比特和它们之间的串扰,那么机器将根本没有时间运行算法。

机器学习正在被引入这一领域,试图实现自动化的快速校准。

功耗与尺寸是硬约束。

目前的量子计算机像大型主机一样庞大。超导需要庞大的制冷机,中性原子需要高功率激光系统。

如果不解决能效比问题,未来的百万比特量子计算机可能需要一座核电站来供电。

打破单体极限的架构革命

面对上述挑战,单纯地在单块芯片上堆砌比特数量(单体扩展)很快就会撞上物理天花板。文章提出了一个明确的解决方案:模块化架构。

既然造不出一个包含一百万个比特的巨型芯片,那就造一万个包含一百个比特的小模块,然后用量子互连将它们连接起来。这就像数据中心由无数个服务器机架组成一样。

模块化设计将复杂的布线、散热和控制问题分解到了单个模块层面。

每个模块可以独立制造、测试和校准。

更重要的是,模块化允许异构集成。

未来的量子计算机可能不会只由一种比特组成:也许超导比特负责快速运算,离子阱或自旋缺陷负责长寿命存储,而光子则负责模块间的高速通信。

实现这一愿景的关键在于量子互连(Quantum Interconnects)

我们需要在不同模块之间高保真地传输量子态,这可能需要将微波信号转换为光信号的转换器(Transducer),目前这类器件的效率仍然极低,是急需攻克的硬骨头。

无论哪种技术路线胜出,光子学都将在未来的量子系统中扮演核心角色。光子是唯一能在这个系统中长距离传输量子信息的载体。

虽然硅光子技术在经典通信中已经非常成熟,但在量子领域,它面临着严苛得多的要求。

传统光通信可以容忍一定的损耗,信号弱了可以放大。但量子信号不可克隆,一旦损耗就是信息的彻底丢失。

目前的商用硅光子波导损耗约为 0.25 到 1 dB/cm,这对量子应用来说还是太高了。

为了解决这个问题,研究界正在引入薄膜铌酸锂等新材料,它们不仅损耗更低,还具有优异的电光效应,能在极低温下高效工作。

这种材料与工艺的协同进化,再次印证了量子技术发展中“自上而下”的设计理念与“自下而上”的材料创新必须紧密结合。

2025 年的量子技术界,没有奇迹,只有坚实的工程进步。

这注定是一场漫长的征途。从 1950 年提纯锗晶体到今天的 3 纳米芯片,经典计算走过了 75 年。

量子技术虽然有着前人的经验可供借鉴,但它试图掌控的是比电子流更微妙的纠缠态,面临的物理挑战只多不少。

正如文章最后所言,这不仅是科学家的任务,更是全社会的工程。它需要学术界探索新机制,工业界打磨制造工艺,政府提供基础设施支持。

无论是谷歌收购 Atlantic Quantum 布局超导,还是各国在光子互连上的角力,都预示着大变局的到来。

未来的量子计算机可能不会像我们现在想象的那样是一个巨大的单一芯片,而更像是一个由光纤连接的异构集群,里面跳动着超导、原子、光子等多种物理形态的“心脏”。

在这个量子互联网初现端倪的时代,保持耐心与持续投入,或许是比单纯的技术突破更重要的品质。

这一场从微观控制到宏观算力的跨越,才刚刚拉开序幕。

参考资料:

https://www.science.org/doi/10.1126/science.adz8659

END

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值