机器学习题库

本文介绍了正则化技术,如L1(Lasso)和L2(Ridge)正则化,用于防止过拟合。L1倾向于产生稀疏权重,而L2产生平滑权重。降低过拟合的其他方法包括随机失活、提前终止和特征选择。还探讨了偏差和方差的概念,以及解决高偏差和高方差的方法。此外,提到了最小二乘法和极大似然估计在模型参数估计中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

正则化(regularization)
    正则化是针对过拟合提出的。
    正则化可以防止训练模型过于复杂,有效降低过拟合的风险。
       L1正则化 (Lasso):可以得到稀疏的权值,它会自动进行特征选择,去掉一些没用的特征,即,将这些特征对应的权重置为0。目标函数中增加所有权重w参数的绝对值之和。
       L2正则化 (Ridge): 可以得到平滑的权值。当要求参数越小时,说明模型越简单,而模型越简单则越趋向于平滑,从而防止过拟合。目标函数中增加所有权重w参数的平方之和。

L1,L2 区别: L2正则化会让系数的取值变得平均。L1会趋向产生少量特征,而其他特征都是0。而L2会选择更多的特征,这些特征都会接近于0

降低过拟合
    正则化:L1,L2
    随机失活(dropout)
    提前终止(early stopping): 根据交叉验证提前终止。
    特征选择/特征降维

偏差和方差
    偏差:度量了学习算法的期望预测和真实结果的偏离程度,表示学习算法本身的拟合能力。
    方差:度量了同样大小的训练集的变动所导致的学习性能的变化,表示数据扰动</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值