k-近邻算法概述
工作原理: 存在一个样本数据集合,也称作训练样本集,并且样本集中的每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似(最近邻)的分类标签。一般来说,只选择样本数据集中前k个最相似的数据,然后选择这k个最相似数据中出现次数最多的分类作为新数据的分类。
- 优点:精度高、对异常值不敏感、无数据输入假定。
- 缺点:计算复杂度高、空间复杂度高
- 适用数据范围:数值型和标称型。
(以下内容来自《统计学习方法》——李航)
KNN的数学表示
输入:训练数据集
T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} T={
(x1,y1),(x2,y2),...,(xN,yN)}
其中 x i x_i xi是实例的特征向量, y i y_i yi为实例的类别,类别集合为 { c 1 , c 2 , . . . , c K } \{c_1,c_2,...,c_K\} {
c1,c2,...,cK};
实例特征向量x;
输出:实例x所属的类y。
(1) 根据给定的距离变量,在训练集T中找出与x最邻近的k个点,涵盖这k个点的x的邻域记作 N k ( x ) N_k(x) Nk(x);
(2) 在 N k ( x ) N_k(x) Nk(x)中根据分类决策规则(如多数表决)决定x的类别y:
y = a r g m a x Σ I ( y i = c i ) , i = 1 , 2 , . . . , K y = argmax\Sigma I(y_i = c_i), i=1,2,...,K y=argmaxΣI(yi=ci),i=1,2,...,K
式中 I I I为指示函数,当 y i = c i y_i=c_i yi=ci时为1,否则为0。
k近邻法的特殊情况是k=1的情况,称为最近邻算法。k近邻法没有显式的学习过程。