1. 常见的范数
1.1 L0 范数
向量中非零元素的个数,即稀疏度,适合稀疏编码,特征选择。
1.2 L1 范数
又叫曼哈顿距离或最小绝对误差,向量中各个元素绝对值之和,也叫“稀疏规则算子”。
1.3 L2 范数
又叫欧式距离,向量中各元素平方和再开方。
L1 范数相当于给模型参数
设置一个拉普拉斯先验分布;L2范数相当于给模型参数
设置一个均值为0的高斯先验分布。
1.4 针对线性回归问题怎么选择惩罚项?
通过缩减回归系数避免过拟合问题。
L1 范数(Lasso回归)
1. 特征选择(将某些系数缩减为0)
2. 防止过拟合。
L2 范数(Ridge回归)
1. 规则化,让优化求解变得更稳定快速;
2. 防止过拟合。
2. 正则化
2.1 正则化作用
在经验风险与模型复杂度之间做平衡(选择二者同时较小的模型),

本文介绍了机器学习中常见的范数,如L0、L1和L2范数,以及它们在模型正则化中的应用。L1范数(Lasso回归)通过产生稀疏解来进行特征选择,防止过拟合,而L2范数(Ridge回归)则通过使模型参数更小但不为零来规则化模型,保持模型稳定性。正则化是平衡模型复杂度与泛化能力的重要手段,遵循奥卡姆剃刀原理,防止过拟合。L1正则化相比于L2更容易得到稀疏解,适合特征选择。
最低0.47元/天 解锁文章
1155

被折叠的 条评论
为什么被折叠?



