[kaggle竞赛实践4]数字识别Digital Recognizer--Random Forest随机森林方法

本文介绍了使用随机森林方法在kaggle的Digital Recognizer竞赛中实现96.5%精度的过程。通过scikit-learn库快速实现,探讨了随机森林的基本应用,但未深入到代码层面的算法实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这个比赛用的是著名的字符识别数据集,MNIST数据集, 使用的方法是随机森林方法。代码没有设计多少随即森林的方法,原理和代码级别的算法实现后面补充。

精度96.5%。


# -*- coding: utf-8 -*-
import pandas as pd
from sklearn.ensemble import RandomForestClassifier
from sklearn import datasets
 

#机器学习是对不同特征的学习,如果特征间相互独立,那么知道和不知道这些特征叫什么根本没有什么区别,都是某个维度的数字罢了,
#但是很多时候关键就在于不同特征之间的关系,隐含特征的挖掘,也即Feature Engineering

#数据路径
trainPath='C:\Users\Administrator.HW5RNAPLM6MRWZC\Desktop\kaggle\MINST_DATA'+r'\train.csv'
testPath='C:\Users\Administrator.HW5RNAPLM6MRWZC\Desktop\kaggle\MINST_DATA'+r'\test.csv'

#准备训练数据
rawData=pd.read_csv(trainPath).values
trainData=rawData[:,1:]
trainLabel=rawData[:,0]
testData= pd.read_csv(testPath).values
X=trainData
Y=trainLabel

#随机森林训练和测试
clf=RandomForestClassifier(n_estimators=100)
clf=clf.fit(X,Y)
testLabel=clf.predict(testData)

#训练结果保存
df=pd.DataFrame(testLabel,columns=['label'])
df.to_csv('testLabel.csv',header=True,index=False)


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值