k最近邻分类器将实例指派到被最多近邻代表的类。它基于这样的想法:实例越类似,它们越可能属于同一类。只要有一个合理的相似性或距离度量,就可以对非类使用相同的方法。
大多数分类算法可以改写为基于距离的分类。例如,在最近均值分类器中(nearest mean classification),选择CiCi,如果
D(x,mi)=minj=1KD(x,mj)D(x,mi)=minj=1KD(x,mj)
在高斯超球的情况下,维是独立的且具有相同的尺度,距离度量是欧氏距离:
D(x,mi)=||x−mi||2D(x,mi)=||x−mi||2
否则它是马氏距离:
D(x,mi)=(x−mi)TS−1i(x−mi)D(x,mi)=(x−mi)TSi−1(x−mi)
其中SiSi是CiCi的协方差矩阵。
在半参数方法中,每一个类都表示高斯混合。可以粗略地说,如果在所有类的簇中心中,属于

本文介绍了基于距离的分类方法,如k最近邻(k-NN)、最近均值分类器,探讨了欧氏距离和马氏距离在不同情况下的应用。同时,讨论了半参数方法和非参数方法,包括局部自适应距离函数和距离学习,以及如何在高维数据中避免过拟合。此外,还提到了离散数据的汉明距离,并指出该框架可用于各种领域的相似度量。
最低0.47元/天 解锁文章
785

被折叠的 条评论
为什么被折叠?



