量子算法:原理、进展与挑战
1. 引言
经典计算理论主要基于通用图灵机模型,它能在有限时间内完成任何现代经典数字计算机可做的计算。该理论将计算机器的物理特性抽象掉,成为数学的一个分支,研究计算无需实验,仅靠纯思维即可。然而,信息的存储、传输和处理总是通过物理手段进行的。当计算机向更小尺寸发展时,量子力学的描述变得必要。
理查德·费曼最早预见到量子计算机的非凡能力。他在1981年指出,用经典概率计算机高效模拟一般量子演化似乎是不可能的,因为描述量子态所需的经典信息随时间呈指数增长。但他认为这是一个机会,提出用量子力学设备可能高效模拟量子演化,并设想了通用量子模拟器。1985年,大卫·多伊奇证明了通用量子计算机的存在,为量子计算这一新兴领域奠定了基础。
此后,一系列不断改进的量子算法相继出现。1994年,彼得·肖尔设计出首个原则上能高效进行因数分解的量子算法,因数分解的困难性支撑着许多常见加密方法的安全性,如RSA公钥密码系统,因此因数分解迅速成为量子计算机的“杀手级应用”。如今,虽然提出的量子算法数量不多,但对其底层结构有了更深入的理解,人们正在寻找能支持量子计算机并使其实用化的技术。
2. 计算复杂性
为解决特定问题,计算机遵循一组精确的指令,这组指令的规范称为算法。算法有快慢之分,若执行算法所需时间的增长不超过输入规模的多项式函数,则称该算法是高效的。通常,输入规模以指定输入所需的总比特数衡量,执行时间以计算步骤数计算。
计算复杂性理论根据解决问题所需算法的效率对问题进行分类,考察解决问题最难实例所需的最短时间和空间(内存)。常见的复杂性类包括:
- P类 :能在多项
超级会员免费看
订阅专栏 解锁全文
1199

被折叠的 条评论
为什么被折叠?



