机器学习课堂笔记(一)------K近邻算法(kNN)

一.k近邻算法基本思想

依据距离欲判断的点最近的k个点来确定目标点的属性。解决监督学习中的分类问题,但也可解决回归问题。
[例如]肿瘤判断分类在这里插入图片描述
如图所示:本例中,我们仅依据肿瘤的大小和存在时间来判断肿瘤是良性还是恶性。图中,红色表示良性,蓝色表示恶性。可以见得这解决了一个分类问题。
我们依据现存的数据,判断一个新的病例为何性质。在这里我们取k为3(现实中具体的k值要依据经验等来获得)
假如新的病例举例最近的3个点中有大于等于2个属于良性,我们就判断这个肿瘤大概率属于良性。这便是k临近算法的思想。

二.kNN的实现

1.案例说明

import numpy as np
import matplotlib.pyplot as plt

raw_data_X = [[3.393533211,2.331273381],
              [3.110073483,1.781539638],
              [1.343808831,3.368369054],
              [3.582294042,4.679179110],
              [2.280362439,2.866990263],
              [7.423436942,4.696522875],
              [5.745051997,3.533989803],
              [9.172168622,2.511101045],
              [7.792783481,3.424088941],
              [7.939820817,0.791637231],
             ]
raw_data_y = [0,0,0,0,0,1,1,1,1,1]

X_train = np.array(raw_data_X)
y_train = np.array(raw_data_y)

x = np.array([8.093607318,3.365731514])

现在我们用raw_data_X来存储每个点的位置信息,用raw_data_y来存储该点是何性质,(0:良性,1:恶性),用x来存储欲判断点的信息。需要得出该点的性质。

plt.scatter(X_train[y_train==0,0],X_train[y_train==0,1],color='g')
plt.scatter(X_train[y_train==1,0],X_train[y_train==1,1],color='r')
plt.scatter(x[0],x[1],color='b')
plt.show()

绘制出已知点和欲判断点的位置关系。
在这里插入图片描述
绿色表示良性,红色表示恶性,蓝色表示需要判断的点。现在我们可以得知,该点应该是恶性肿瘤,我们得出结果是1。

2.代码实现

from math import sqrt
distances = []
for x_train in X_train:
    d = sqrt(np.sum((x_train - x) ** 2))
    distances.append(d)

首先我们需要知道对于每个x_train实际上可以理解为一个横坐标和纵坐标组成的向量,np.sum(x_train - x) ** 2)就实现了将该向量对应元素都相减在平方,然后求和。sqrt()实现了开平方。如此便是我们初中学的求两点距离公式。
注:上面的代码可以用一行来实现

distances = [sqrt(np.sum((x_train - x) ** 2)) for x_train in X_train]
distances

输出的结果是:

[4.812566907609877,
 5.229270827235305,
 6.749799002320346,
 4.6986266144110695,
 5.83460014556857,
 1.4900114024329525,
 2.354574897431513,
 1.3761132675144652,
 0.3064319992975,
 2.5786840957478887]

然后就需要用到numpy中的argsort()函数,本文底部补充中会对该函数进行介绍。

nearest = np.argsort(distances)

可以得到结果:array([8, 7, 5, 6, 9, 3, 0, 1, 4, 2], dtype=int64)。这是diatances中由小到大排序后返回的元素序号,将其存在nearest中。然后指定k = 6。接下来需要做的是依据nearest中的前k个数据在y_train中对应的性质(0:良性,1:恶性)来判断即可。

topK_y = [y_train[i] for i in nearest[:k]]
topK_y

得到结果为[1, 1, 1, 1, 1, 0],因此该点属性应是1,即该点的性质为恶性肿瘤,因此与之前预判的结果是一样的。然后用Counter()函数对每个元素进行计数

from collections import Counter
votes = Counter(topK_y)
predict_y = votes.most_common(1)[0][0]

最后得到predict_y 的结果是1。

下面给出完整的代码:

import numpy as np
from math import sqrt
from collections import Counter


def kNN_classify(k,X_train,y_train,x):

    assert 1<=k<=X_train.shape[0],"k must be vaild"
    assert X_train.shape[0] == y_train.shape[0],\
            "the size of X_train must equal to the size of y_train"
    assert X_train.shape[1] == x.shape[0],\
            "the feaure number of x must be equal to X_train"

    distances = [sqrt(np.sum((x_train - x)**2)) for x_train in X_train]
    nearest = np.argsort(distances)

    topK_y = [y_train[i] for i in nearest[:k]]
    votes = Counter(topK_y)

    return votes.most_common(1)[0][0]

三.本例中用到的函数详解:

1.argsort()函数
argsort()函数,是numpy库中的函数,用来实现排序功能。
一维数组:

import  numpy as np

x = np.array([2,4,3])
y = np.argsort(x)
print(y)

得到结果:[0 2 1]

二维数组:

import  numpy as np

x = np.array([[2,5],[3,4]])
y = np.argsort(x,axis=0)

print(y)

axis=0:按列排序。首先搞明白现在的x是一个矩阵
[2 5]
[3 4]此时该矩阵按列排序,第一列输出的序列号应该是[0,1],第二列就应输出[1,0]
输出结果
[[0 1] [1 0]]

axis=-1:默认,按行排序。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值