范数知识整理

本文详细介绍了向量和矩阵的各种范数,包括L0、L1、L2、∞-范数以及p范数,并探讨了它们在机器学习和优化中的应用,尤其是L0和L1范数在特征选择和稀疏编码中的作用,以及L2范数如何防止过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

向量范数

L 0 L_0 L0范数

  • ∥ x ∥ 0 = ∑ ∣ x i ∣ 0 \|x\|_0=\sum|x_i|^0 x0=xi0
  • 非零元素个数

如果我们使用 L 0 L_0 L0来规则化参数向量w,就是希望w的元素大部分都为零。 L 0 L_0 L0范数的这个属性,使其非常适用于机器学习中的稀疏编码。在特征选择中,通过最小化 L 0 L_0 L0范数来寻找最少最优的稀疏特征项。

但是, L 0 L_0 L0范数的最小化问题是 NP 难问题。而 L 1 L_1 L1范数是 L 0 L_0 L0范数的最优凸近似,它比 L 0 L_0 L0范数要更容易求解。因此,优化过程将会被转换为更高维的范数(例如 L 1 L_1 L1范数)问题。

L 1 L_1 L1范数

  • ∥ x ∥ 1 = ∑ ∣ x i ∣ \|x\|_1=\sum|x_i| x1=xi
  • 向量中各个元素绝对值之和,也被称作“Lasso regularization”(稀疏规则算子)

在最小化目标函数的时候考虑一些不重要的特征,虽然可以获得更小的训练误差,但在预测新的样本时可能会产生过拟合。稀疏规则化算子的引入就是为了完成特征自动选择,去掉信息较少的特征,也就是把这些特征对应的权重置为0。

L 2 L_2 L2范数

  • ∥ x ∥ 2 = ∑ ∣ x i ∣ 2 = ( ∑ ∣ x i ∣ 2 ) 1 2 \|x\|_2=\sqrt{\sum|x_i|^2}=(\sum |x_i|^2)^\frac{1}{2} x2=xi2
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值