Kaggle官方课程链接:Underfitting and Overfitting
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
Underfitting and Overfitting
微调你的模型以获得更好的性能。
在这一步结束时,您将了解欠拟合和过拟合的概念,并能够应用这些想法使您的模型更加准确。
尝试不同的模型
现在你有了一种可靠的方法来衡量模型的准确性,你可以尝试其他模型,看看哪种模型能给出最好的预测。但是,对于模型,你有什么替代方案呢?
您可以在scikit-learn的文档中看到,决策树模型有很多选项(比您在很长一段时间内想要或需要的更多)。最重要的选项决定了树的深度。回想一下本课程的第一课,树的深度是衡量它在做出预测之前分裂了多少次的指标。这是一棵相对较浅的树

在实践中,一棵树在顶层(所有房屋)和一片叶子之间有10个裂缝并不罕见。随着树越来越深,数据集被切成叶子,房子越来越少。如果一棵树只有1个分割,它会将数据分为2组。如果每组再次拆分,我们将得到4组房屋。再次拆分每个组将创建8个组。如果我们通过在每个级别添加更多拆分来将组的数量增加一倍,我们就会有2^10.
当我们到达第10层时,已经有几组房子了。这是1024片叶子。
当我们把房子分成许多叶子时

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



