kNN算法的流程:
1.收集数据:想怎么收集就怎么收集啦;
2.准备数据:距离计算所需要的数值,最好是结构化数据格式;
3.分析数据:散点图啦等等,可以使用任意办法;
4.训练算法:kNN那么笨的算法不需要训练;
5.测试算法:计算错误率;
6使用算法:需要输入的样本数据,调用算法计算分类结果等;
import numpy as np
import operator
# 1.使用numpy导入数据
def creatDateSet():
group = np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
labels =['A','A','B','B']
return group,labels
#在开发环境中可以这样调用
# import kNN
# group,labels= kNN.creatDateSet()
group,labels= creatDateSet()
print(group)
print(labels)
# 2. 从文本文件解析数据
# 2.1. K-近邻算法
def classify0(inX,dataSet,labels,k):
'''
inX 为待测试数据
k 为超参数
'''
dataSetSize = dataSet.shape[0] #取第一个维度,计算样本的个数
'''
tile函数用于重复数据
创建一个和dataSet一样的数组进行矩阵的减法
np.tile([0,0],(4,1))
>> array([[0, 0],[0, 0],[0, 0], [0, 0]]),这样就可以进行减法了,
为tile 函数打call!!
'''
diffMat = np.tile(inX,(dataSetSize,1)) - dataSet
sqDiffMat = diffMat**2
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances**0.5
#argsort()是将元素从小到大排列,提取其对应的index(索引),然后输出
sortedDisIndicies = distances.argsort()
#创建一个dict
classCount ={}
for i in range(k):
#获得距离最小前K个的标签
voteIlabel = labels[sortedDisIndicies[i]]
# dict.get(key, default=None)函数,key就是dict中的键voteIlabel,
# 如果不存在则返回一个0并存入dict,如果存在则读取当前值并 + 1;
# 这样操作后我们可能得到{'A':1,'B':1,'A':1}
classCount[voteIlabel] = classCount.get(voteIlabel,0) +1
'''
sorted(iterable, cmp=None, key=None, reverse=False)
字典 items() 方法以列表返回可遍历的(键, 值) 元组数组。
operator.itemgetter函数
operator模块提供的itemgetter函数用于获取对象的哪些维的数据,参数为一些序号。看下面的例子
a = [1, 2, 3]
>> > b = operator.itemgetter(1) // 定义函数b,获取对象的第1个域的值
>> > b(a)
2
>> > b = operator.itemgetter(1, 0) // 定义函数b,获取对象的第1个域和第0个的值
>> > b(a)
(2, 1)
要注意,operator.itemgetter函数获取的不是值,而是定义了一个函数,通过该函数作用到对象上才能获取值。
'''
sortedClassCount = sorted(classCount.items(),\
key = operator.itemgetter(1),reverse = True)
return sortedClassCount[0][0]
#测试
test = classify0([5,0],group,labels,3)
print('测试的数据属于',test,'类别')