KNN K近邻算法
算法特点
优点:精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。
适用数据范围:数值型和标称型。
算法内容
选择样本数据集中前k个最相似的数据,k个最相似数据中出现次数最多的分类,作为新数据的分类。
通俗地讲,想判定某个数据的类别,先找到距离最近的k个数(平方和再开方求距离),再看k个数据中处在哪个类别的数最多
归一化数值
将任意取值范围的特征值转化为0到1区间内的值 newValue = {oldValue - min) / (max-min)
def datingClassTest():
hoRatio = 0.50 #hold out 10%
datingDataMat,datingLabels = file2matrix('datingTestSet2.txt') #load data setfrom file
normMat, ranges, minVals = autoNorm(datingDataMat)
m = normMat.shape[0]
numTestVecs = int(m*hoRatio)
errorCount = 0.0
for i in range(numTestVecs):
#参数1 normMat[i,:] 1-500行 的1行
#参数2 normMat[numTestVecs:m,:] 500-1000行 的500行
#参数3 datingLabels[numTestVecs:m],3) 500-1000行 的500行 result
#参数4 k=3
classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i])
if (classifierResult != datingLabels[i]): errorCount += 1.0
print "the total error rate is: %f" % (errorCount/float(numTestVecs))
print errorCount
每判定一次,需要比较500次,计算量比较大
在这里k定为3,一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数。
最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
def classify0(inX, dataSet, labels, k):
#计算距离,行的个元素的平方差
dataSetSize = dataSet.shape[0]
diffMat = tile(inX, (dataSetSize,1)) - dataSet
sqDiffMat = diffMat**2
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances**0.5
#排序,选择k个最小的距离
sortedDistIndicies = distances.argsort()
classCount={}
# k个数据当中每个类型次数统计,然后从大到小排序, 选择次数最多作为判定结果
# 例如 分类1:1次 分类2:3次 分类3:2次 最终选择 分类2
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
知识点
机器学习算法一个很重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类
器,而使用其余的10%数据去测试分类器,检测分类器的正确率