上次做了最简单的一个LR实例,然后遗留了几个可以改进的问题:
1.训练集和测试集的划分
2.模型的评估和调整
3.特征的筛选
针对这些问题,分别查找了一些解决方法:
1.sklearn的train_test_split函数
train_test_split函数用于将矩阵随机划分为训练子集和测试子集,并返回划分好的训练集测试集样本和训练集测试集标签。
格式:
X_train,X_test, y_train, y_test =cross_validation.train_test_split(train_data,train_target,test_size=0.3, random_state=0)
参数解释:
train_data:被划分的样本特征集
train_target:被划分的样本标签
test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量
random_state:是随机数的种子。
随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。
随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:
种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。
2.模型评估
均方误差:house_mse = mean_squared_error(housing_labels, housing_predictions)
均方根误差:house_rmse = np.sqrt(tree_mse)
模型评分:model.score,返回决定系数 R²
决定系数,反应了y的波动有多少百分比能被x的波动所描述,即表征依变数Y的变异中有多少百分比,可由控制的自变数X来解释。
意义:拟合优度越大,说明x对y的解释程度越高。
自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。
在得到评估参数后,又尝试了决策树和随机森林,发现不同模型,最终的误差和评分都很不一样。
3.数据集特征进行相关性计算
参考Iris数据集特征相关性处理,用corr函数计算了housing data里各个feature的相关度。
并通过图表直观展示。
数遗留问题:
1.找到每个feature和target之间的相关性,选出某些feature来作为input.
2.分层抽取数据
Reference:
1.scikit-learn 线性回归模型的score函数 https://blog.youkuaiyun.com/Rex_WUST/article/details/82621952
2.【特征相关性分析】对数据集特征进行相关性计算和绘图 https://blog.youkuaiyun.com/ChenVast/article/details/82802009
3.Python+sklearn练习朴素贝叶斯算法https://blog.youkuaiyun.com/keith_jiang/article/details/88381923
4.AI:总结线性回归模型评估方法 https://blog.youkuaiyun.com/weixin_40904071/article/details/95933283
5.回归评价指标MSE、RMSE、MAE、R-Squared https://www.jianshu.com/p/9ee85fdad150