Scikit-Learn -KNN

本文介绍如何使用Scikit-Learn实现K-近邻算法(KNN),包括数据集加载、模型训练及评估准确率等步骤,并提供完整代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Scikit-Learn

目录


东西写在纸上总是丢,所以找个不会丢的吧!学习总是一点点的,先会用,之后分析具体的细节,再找一个具体实例应用
- keep going .

http://scikit-learn.org/stable/
http://sklearn.apachecn.org/cn/0.19.0/
sklearn的官网
http://scikit-learn.org/stable/modules/classes.html#module-sklearn.datasets
这个是sklearn的常用的数据集

如何选择一个机器学习的模型
如何选择一个机器学习的模型

http://scikit-learn.org/stable/tutorial/machine_learning_map/index.html
图片的网址


KNN(K-Nearest Neighbor) K-近邻算法

使用Sklearn很好实现,几乎不用理解细节,会用就行。

代码块

#导入数据集和模型
from sklearn import datasets
# from sklearn.cross_validation import train_test_split
from sklearn.model_selection import  train_test_split
from sklearn.neighbors import KNeighborsClassifier
#定义数据和标签,导入的是iris那个花的数据
iris = datasets.load_iris()
iris_X = iris.data
iris_y = iris.target
##看一下数据长什么样
#print(iris_X[:2,:])
#print(iris_X[:,:])
#print(iris_y)

#定义训练集和测试集、还打乱了数据集。
#训练集:测试集 = (1-0.3):0.3
X_train,X_test,y_train,y_test = train_test_split(iris_X,iris_y,test_size=0.3)
# print(y_train)
#调用模型
knn = KNeighborsClassifier()
#train
knn.fit(X_train,y_train)
#输出测试的结果
knn_y = knn.predict(X_test)
print(knn_y)
#输出正确的结果
print(y_test)
#求准确率 两种方法都一样
print(knn.score(X_test,y_test))
accuracy_knn = (knn_y == y_test).astype(int).mean()
print(accuracy_knn)

##conclusion
machine learning is not easy.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值