机器学习 算法总结(二) 调参技巧

本文总结了机器学习中的偏差与方差问题,探讨了如何通过添加特征、正则化等方法抑制欠拟合与过拟合。介绍了L1与L2正则化的差异,以及它们如何影响模型的稀疏性和稳定性。同时,文章还讨论了梯度下降算法的不同变体,以及如何避免局部最小值。此外,还阐述了bagging与boosting在减少偏差和方差方面的作用,并提及了特征选择和模型选择的策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

偏差和方差

  • 在统计学习框架下,Error = Bias + Variance。Error指的模型的预测错误率,由两部分组成,一部分是由于模型太简单而带来的估计不准确的部分(Bias),另一部分是由于模型太复杂而带来的更大的变化空间和不确定性(Variance)。
  • 如果要降低模型的Bias,就一定程度上会提高模型的Variance,反之亦然。根本原因是如果我们更相信训练数据的真实性,忽视对模型的先验知识,就会保证模型在训练样本上的准确度,这样可以减少模型的Bias,但这样会使模型的泛化能力不够,导致过拟合,降低模型在真实数据上的表现,增加模型的不确定性。反之,如果我们更注重模型的先验知识,在学习模型的过程中对模型增加更多的限制,就可以降低模型的variance,提高模型的稳定性,但也会使模型的Bias增大。
  • 模型太简单:欠拟合;模型太复杂:过拟合。

 

抑制欠拟合与过拟合方法

欠拟合主要是因为模型太简单,不能很好地捕捉模型特征。

  • 添加其他特征项让模型学习
  • 使模型更复杂,比如说对一个线性模型添加多项式特征等
  • 减少正则化参数

过拟合主要是因为模型太复杂,过度拟合训练数据,或是训练数据太少,导致模型不能很好地学习到全局特征。

  • 清洗数据,去掉outliner
  • 扩大数据集,包括从数据源头采集更多数据,复制原有数据并加上随机噪声,重采样,根据当前数据集估计数据分布参数,使用该分布产生更多数据等方法
  • Early stopping,当valid准确率不提高时适时停止
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值