1.增加样本数量
该方法可以改进高方差问题,从学习曲线可以看出,随着样本量的增加,交叉验证误差和训练集误差越来越接近
2.减少特征
该方法可以改进高方差问题,高方差是过拟合的情况,花时间去选取更少,更合适的的特征
3.增加特征
该方法可以改进高偏差问题,因为假设函数太简单,所以欠拟合,要增加更多的变量,使假设函数更好的拟合训练集
4.增加多项式特征
该方法依然使改进高偏差问题,就是增加特征,理有同上
5.减少lambda
改进高偏差
6.增加lambda
改进高方差
本文探讨了通过调整样本数量、特征选择及正则化参数来解决机器学习模型中常见的高偏差与高方差问题,提供了具体的方法和策略。
1.增加样本数量
该方法可以改进高方差问题,从学习曲线可以看出,随着样本量的增加,交叉验证误差和训练集误差越来越接近
2.减少特征
该方法可以改进高方差问题,高方差是过拟合的情况,花时间去选取更少,更合适的的特征
3.增加特征
该方法可以改进高偏差问题,因为假设函数太简单,所以欠拟合,要增加更多的变量,使假设函数更好的拟合训练集
4.增加多项式特征
该方法依然使改进高偏差问题,就是增加特征,理有同上
5.减少lambda
改进高偏差
6.增加lambda
改进高方差
1987

被折叠的 条评论
为什么被折叠?