回归树:交叉验证
本文仅用作学习记录 及分享,有不对的地方还请指正,谢谢!
交叉验证是用来观察模型的稳定性的一种方法,我们将数据划分为n份,依次使用其中一份作为测试集,其他n-1份作为训练集,多次计算模型的精确性来评估模型的平均准确程度。训练集和测试集的划分会干扰模型的结果,因此用交叉验证n次的结果求出的平均值,是对模型效果的一个更好的度量。
简单来看看回归树是怎么样工作的
from sklearn.datasets import load_boston
from sklearn.model_selection import cross_val_score
from sklearn.tree import DscisionTreeRegressor
boston = load_boston()
reg = DecisionTreeRegressor(random_state=0)
cross_val_score(regressor,boston.data,boston.target,cv=10,scoring =

交叉验证用于评估模型稳定性,通过将数据分为n份并轮流做训练和测试。在回归树示例中,使用sklearn的DecisionTreeRegressor和cross_val_score函数,以均方误差为评价标准进行10折交叉验证。回归树没有分类树中的class_weight参数,criterion可以选择mse、friedman_mse或mae来衡量误差。
最低0.47元/天 解锁文章
6999

被折叠的 条评论
为什么被折叠?



