决策树如何防止过拟合?
剪枝算法
随机森林
一般情况下,如何防止过拟合?
数据集扩增(Data Augmentation):从数据源头采集更多数据;复制原有数据并加上随机噪声;重采样;根据当前数据集估计数据分布参数,使用该分布产生更多数据等。
正则化方法
提前终止训练(Early stopping)
Dropout,只用于深度学习中。
Batch Normalization。
正则化项L1和L2的区别?
L1更容易得到稀疏解:

For more detail, please refer to: https://blog.youkuaiyun.com/Left_Think/article/details/77684087
决策树和逻辑回归有什么优缺点?分别适于解决什么问题?
逻辑回归适用于处理接近线性可分的分类问题。它可以得到一个与每个观测样本相关的概率列表。
如果边界是非线性的,并且

本文探讨了算法工程师面试中常见的问题,包括决策树如何防止过拟合,常用的数据集扩增和正则化方法,L1和L2正则化的区别,以及决策树和逻辑回归的优缺点。此外,还介绍了参数求解的不同方法,如梯度下降和牛顿法,以及梯度下降的各种变体。
最低0.47元/天 解锁文章
1714

被折叠的 条评论
为什么被折叠?



