机器学习--KNN算法带你光棍节脱单

KNN算法上一篇已经进行过介绍,现在主要进行实际操作,通过对实际数据进行分析,来对没有见过面的美女帅哥进行要不要进行约会作出判断。

以下有一系列采集整理好的数据,第一列表示每年乘坐飞机飞行的里程数(高富帅,白富美比较偏向坐飞机,我们这种屌丝就坐坐火车啦),第二列表示每年吃冰淇淋的公升数,第三列表示玩游戏时间占的百分比(喜欢玩游戏的注意了哈,小心找不到白富美),第四列主要表示要不要约会的程度,数值越大,诱惑力越大。


此次参考《Mechine Learning in Action》这本书,本次实验的数据可以从链接:http://pan.baidu.com/s/1hr9M4Wc 密码:3g3z进行下载。


思路:

1.先读取已经准备好的数据。

2.对已经读取的数据进行转换,前三列组成一个矩阵A,后一列单独组成一个标签列表。

3.对待测数据进行操作,生成一个与矩阵A维度一致的矩阵B。

4.计算矩阵B减去矩阵A之后的差值,然后进行计算,计算出他们之间的距离(待测数据点与原来所有数据点之间的距离)。

5.对距离进行从小到大的排序。

6.取排序后的前n个数值。

7.对前n个数值对应的标签进行统计,谁的占有比重大,就选取为实验的最终结果。

Python实现:

from numpy import *
import operator


data = open("datingTestSet2.txt")
lines = data.readlines()
size = lines.__len__()
print "Size : ", size
dataMat = zeros((size,3))
classLabelVector = []
index = 0
for line in lines :
    line = line.strip()
    listFromLine = line.split("\t")
    dataMat[index, :] = listFromLine[0:3]
    classLabelVector.append(int(listFromLine[-1]))
    index += 1
print classLabelVector
print dataMat

test = [40920, 8.326976, 0.953952]
testMat = tile(test, (size,1))
distancesMat = testMat - dataMat
sqDifffMat = distancesMat**2
sqDistances = sqDifffMat.sum(axis=1)
distances = sqDistances**0.5
sortedNum = distances.argsort()
result = {}
for i in range(10):
    result[classLabelVector[sortedNum[i]]] = result.get(classLabelVector[sortedNum[i]], 0) + 1
sortedResult = sorted(result.iteritems(), key=operator.itemgetter(1), reverse=True)
print sortedResult
if sortedResult[0][0] == 3:
    print "Certainly go"
elif sortedResult[0][0] == 2:
    print "Casual"
else :
    print "Don't go"

### 关于头歌平台中KNN算法机器学习教程与实例 #### 头歌平台概述 头歌(Tougo)是一个专注于计算机科学教育的学习平台,提供丰富的在线课程资源和实践环境。对于机器学习领域的内容,尤其是像KNN这样经典的算法,通常会通过理论讲解、代码实现以及实际应用案例相结合的方式进行教学。 #### KNN算法简介 KNN(K-Nearest Neighbors)是一种基于实例的学习方法,既可用于分类也可用于回归分析。其核心思想是:给定一个测试样本,在训练集中找到与其最近的K个邻居,并依据这K个邻居的信息来进行决策[^2]。 #### KNN算法的主要步骤 1. 数据预处理阶段,包括标准化或归一化操作以消除不同特征间量纲差异的影响。 2. 计算待测样本到所有已知样本的距离,常用欧氏距离或其他形式的距离度量方式。 3. 找出距离最小的前K个样本作为近邻点集合。 4. 对于分类任务采用投票机制决定最终类别;而对于回归任务则取平均值或者加权平均值得出结果。 #### 距离计算公式示例 以下是两种常见距离公式的Python实现: ```python import numpy as np def euclidean_distance(x, y): """欧几里得距离""" return np.sqrt(np.sum((np.array(x) - np.array(y)) ** 2)) def manhattan_distance(x, y): """曼哈顿距离""" return np.sum(abs(np.array(x) - np.array(y))) ``` 上述函数分别实现了欧氏距离和曼哈顿距离的计算过程。 #### 实际应用场景举例 假设我们有一个简的电影分类场景,其中每部影片由两个属性描述:“拥抱次数”和“打斗次数”。利用已有标注的数据集可以构建模型并预测未知标签的新样例所属类型[^4]。 #### 可能存在的挑战及优化方向 尽管KNN易于理解和实现,但在大规模数据集上的性能可能较差,因为每次都需要遍历整个数据库寻找最接近的邻居。因此可以通过KD树索引结构加速查询效率,或是引入降维技术减少维度灾难来的影响[^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值