正则化与核函数:理论与应用解析
1. 正则化在不同场景的应用
正则化在回归问题中起着关键作用,其解通常被选为再生核希尔伯特空间(RKHS)的一个元素。下面我们来看几个具体的例子。
1.1 支持向量回归(Support Vector Regression)
对于具有 $\epsilon$-不敏感损失的支持向量回归,我们有如下公式:
[
c\left(\left(x_{i}, y_{i}, f\left(x_{i}\right)\right) {i \in[m]}\right)=\frac{1}{m} \sum {i = 1}^{m}\left|y_{i}-f\left(x_{i}\right)\right| {\epsilon}
]
正则化项 $\Omega\left(|f|\right)=\lambda|f|^{2}$,其中 $\lambda>0$ 和 $\epsilon \geq 0$ 是固定参数,它们决定了正则化和对训练集拟合程度之间的权衡。此外,一个常数函数 $\varphi {1}(x)=1$ 被用作偏移量,并且该算法不对其进行正则化。
1.2 支持向量分类(Support Vector Classification)
在支持向量分类中,目标值 $y_{i} \in{-1, +1}$,我们使用软间隔损失函数得到:
[
c\left(\left(x_{i}, y_{i}, f\left(x_{i}\right)\right) {i}\right)=\frac{1}{m} \sum {i} \max
超级会员免费看
订阅专栏 解锁全文
733

被折叠的 条评论
为什么被折叠?



