理解正则化(regularization)(贝叶斯角度还不清楚)
最新推荐文章于 2025-04-25 17:50:25 发布
正则化通过添加惩罚项防止过拟合,遵循奥卡姆剃刀原则。L1正则(Lasso回归)导致稀疏解,常用坐标下降法和LARS求解;L2正则(Ridge回归)抑制权重过大,可通过梯度下降等方法解决。
正则化通过添加惩罚项防止过拟合,遵循奥卡姆剃刀原则。L1正则(Lasso回归)导致稀疏解,常用坐标下降法和LARS求解;L2正则(Ridge回归)抑制权重过大,可通过梯度下降等方法解决。
504
1万+

被折叠的 条评论
为什么被折叠?