LR实例:波士顿房价预测2

这篇博客介绍了如何通过sklearn的train_test_split函数进行训练集和测试集划分,利用均方误差和决定系数评估线性回归模型,并探讨了特征相关性对模型的影响。此外,还比较了线性回归、决策树和随机森林的预测误差和评分差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上次做了最简单的一个LR实例,然后遗留了几个可以改进的问题:

1.训练集和测试集的划分

2.模型的评估和调整

3.特征的筛选

 

针对这些问题,分别查找了一些解决方法:

1.sklearn的train_test_split函数

train_test_split函数用于将矩阵随机划分为训练子集和测试子集,并返回划分好的训练集测试集样本和训练集测试集标签。

格式:

X_train,X_test, y_train, y_test =cross_validation.train_test_split(train_data,train_target,test_size=0.3, random_state=0)

参数解释:

train_data:被划分的样本特征集

train_target:被划分的样本标签

test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量

random_state:是随机数的种子。

随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。

随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:

种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。

2.模型评估

均方误差:house_mse = mean_squared_error(housing_labels, housing_predictions)

均方根误差:house_rmse = np.sqrt(tree_mse)

模型评分:model.score,返回决定系数 R²

    决定系数,反应了y的波动有多少百分比能被x的波动所描述,即表征依变数Y的变异中有多少百分比,可由控制的自变数X来解释。

    意义:拟合优度越大,说明x对y的解释程度越高。

     自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。

在得到评估参数后,又尝试了决策树和随机森林,发现不同模型,最终的误差和评分都很不一样。

3.数据集特征进行相关性计算

参考Iris数据集特征相关性处理,用corr函数计算了housing data里各个feature的相关度。

并通过图表直观展示。

数遗留问题:

1.找到每个feature和target之间的相关性,选出某些feature来作为input.

2.分层抽取数据

 

Reference:

1.scikit-learn 线性回归模型的score函数 https://blog.youkuaiyun.com/Rex_WUST/article/details/82621952

2.【特征相关性分析】对数据集特征进行相关性计算和绘图 https://blog.youkuaiyun.com/ChenVast/article/details/82802009

3.Python+sklearn练习朴素贝叶斯算法https://blog.youkuaiyun.com/keith_jiang/article/details/88381923

4.AI:总结线性回归模型评估方法 https://blog.youkuaiyun.com/weixin_40904071/article/details/95933283 

5.回归评价指标MSE、RMSE、MAE、R-Squared https://www.jianshu.com/p/9ee85fdad150

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值