量子K近邻算法与人工神经网络在不同领域的应用
1. 量子K近邻算法(Q - KNN)
在K近邻(KNN)算法里,最后一步是对测试类的所有最近邻进行多数表决。依据之前基于交换测试的准确率测量流程,能得到每个测试类与所有训练类之间的保真度列表。接下来,需要找出每个类中K个最大保真度,也就是最近邻。基于多数表决,就能为测试数据集预测输出类标签。
在经典方法中进行多数表决时,需要对所有保真度进行排序,然后选择具有最大保真度的K个类。而在量子领域,可以通过实现基于量子的最小搜索算法来避免对整个值列表进行排序的成本。
量子计算机在数据库检索速度方面比传统计算机更具优势。Grover算法通过振幅放大技术展示了这种可能性,它能将无结构搜索问题的速度提高二次方,可在许多应用中用作加速函数。Durr算法首先从给定列表中随机选择一个阈值索引,然后多次使用Grover搜索算法,每次都用Grover搜索得到的最新最小值替换所选阈值,最终得到给定列表中的最小值。在当前工作中,使用了修改后的版本来寻找最大元素,因为具有最大保真度的元素是指定测试类的最近邻。
为了比较传统KNN算法和量子KNN算法的准确率和复杂度,在相同的光纤数据集上实现了这两种算法。为验证Q - KNN算法的正确性,还在鸢尾花数据集上进行了测试。运行KNN和量子KNN算法后发现,在不进行任何数据预处理的情况下,KNN在大多数K值下的准确率为100%;进行预处理后,在较小的K值下准确率为100%,然后随着K值的增加逐渐降低。而量子KNN在进行预处理时准确率不太理想,仅为93.33%;不进行预处理时,在较小的K值下准确率为100%,然后随着K值的增加逐渐降低。
具体从两个关键方面对经典和量子KNN的准确率进
超级会员免费看
订阅专栏 解锁全文
1288

被折叠的 条评论
为什么被折叠?



