特征选择、处理与学习:提升机器学习性能的关键
1. 特征选择
1.1 稀疏诱导范数
在特征选择中,我们常常需要在有限的特征预算下最小化经验风险。这个问题可以表示为:
[
\min_{w} LS(w) \text{ s.t. } |w|_0 \leq k
]
其中,(|w|_0 = |{i : w_i \neq 0}|),即非零元素的数量。这意味着我们希望 (w) 是稀疏的,这样只需要测量与 (w) 中非零元素对应的特征。
然而,求解这个优化问题在计算上是困难的。一种可能的放松方法是用 (\ell_1) 范数 (|w| 1 = \sum {i=1}^{d} |w_i|) 代替非凸函数 (|w| 0),并求解以下问题:
[
\min {w} LS(w) \text{ s.t. } |w|_1 \leq k_1
]
其中 (k_1) 是一个参数。由于 (\ell_1) 范数是凸函数,只要损失函数是凸的,这个问题就可以有效地求解。
另一个相关问题是最小化 (LS(w)) 与 (\ell_1) 范数正则化项的和:
[
\min_{w} \left( LS(w) + \lambda |w|_1 \right)
]
其中 (\lambda) 是正则化参数。对于任何 (k_1),都存在一个 (\lambda) 使得上述两个问题的解相同,因此它们在某种意义上是等价的。
(\ell_1) 正则化通常会导致稀疏解。例如,考虑简单的优化问题:
[
\min_{w \in \mat
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



