最近邻
K-近邻(待会介绍)的一种极端情况。“近朱者赤,近墨者黑”。
def distance(p0, p1):
# Computes squared euclidean distance
return np.sqrt(np.sum((p0-p1)**2))
def nn_classify(training_set, training_labels, new_example):
dists = np.array([distance(t, new_example) for t in training_set])
nearest = dists.argmin()
return training_labels[nearest]
K近邻
将上述的最近邻算法泛化为一个k近邻分类器,不仅考虑最近邻的点,还要考虑前k个最近邻点。k近邻假设给定一个训练数据集,其中的实例类别已定,分类时,对新

K近邻是一种基于邻居投票的分类算法,它考虑了新的实例点的k个最近邻来预测其类别。该算法精度高但计算复杂度和空间复杂度较高,需要存储全部训练数据。K近邻的基本要素包括距离度量、分类决策规则和k值选择。实践中,通过归一化处理数据以平衡不同特征的影响。k值的选择对模型复杂度有直接影响,而最优k值通常通过交叉验证确定。
最低0.47元/天 解锁文章
4184

被折叠的 条评论
为什么被折叠?



