机器学习技法-4-Soft Margin Support Vector Machine

理解软间隔支持向量机及其优化策略
本文深入探讨了支持向量机(SVM)的软间隔概念,通过引入松弛变量允许一定的误差和噪声容忍,从而实现更加实用和灵活的分类。详细解释了软间隔SVM的数学模型、优化目标、拉格朗日乘子法以及如何通过交叉验证选择合适的超参数。此外,阐述了软间隔与硬间隔SVM的区别,并强调了软间隔在实际应用中的优势。

有时候,SVM可能分割的太过了,黑即是黑,白即是白,其实这样“刚正无私”overfit也不好,所以就需要“中庸之道”,要允许有部分的误差或噪声,这就是为什么要有Soft Margin~还是ppt上的图解释的好
犯错要越少越好,这就是pocket,这是最原始的思想:允许犯错,但是犯的错要越少越好~这个表示分错了,这个的个数要越少越好

minb,wn=1Nynsign(wTzn+b)

将上述思想融合到hard-margin SVM中
不想写那么多中间式。
soft-margin SVM:
minb,w, ξ 12wTw+Cn=1Nξns.t.  yn(wTzn+b)1ξn and ξn0 for all n

其中,用ξn表示error的大小,即margin violation
C表示一个权衡因子trade-offlarge marginmargin violation哪个更重要
C大,则是边界窄,严格,噪声少
C小,则是边界宽,宽松,噪声多

习题啥意思?


式子写出来了,怎么求解呢?
写成Lagrange function,Lagrange multipliers αn, βn

maxαn0, βn0(minb,w L(b,w,ξ,α,β)=12wTw+Cn=1Nξn+n=1Nαn(1ξnyn(wTzn+b))+n=1Nβn(ξn))

通过条件Lξn=0=Cαnβn消掉ξn,主要是βn=Cαn0反代回去消掉的!同时有条件0αnC
所以上述Lagrange dual简化为
max0αnC, βn=Cαn(minb,w    12wTw+n=1Nαn(1yn(wTzn+b)))

注意观察这个形式,除了max下面的约束条件不同,式子的形式和hard-margin很像!所以和以前一样,转化为在KKT约束条件的二次规划求解出αn,然后由KKT约束条件分别求出w=Nn=1αnynznβn=Cαn(表达式略有不同!)忘了KKT就回去看第2课!

习题想表达:参数C直接成为αn上限值


Kernel Soft_Margin SVM
和以前的Hard-Margin相比有,上限(upper-bound)
soft-Margin比Hard-Margin更常用
(看不懂就经常返回去多看几遍)

αn的物理意义,这个很有意思啊!
complementary slackness:

αn(1ξnyn(wTzn+b))=0(Cαn)ξn=0
  • non SV (0=αn):ξn=0(没有违反边界) 远离胖胖边界
  • free SV (0αnC):ξn=0 (没有违反边界) 刚好在胖胖边界上的点
  • bounded SV(αn=C):ξn=违规点的数量

就是一个selection的过程:有两种方法,cross-validation,nSV
我的理解就是通过上面两种方法,选择一个好的model
how to select?
EcvC,γ就是cross-validation所求的那个值,具体怎么求不知道,但是如果这个值求出来越大,选择的model就越overfit(就是分类分的太过了!)
nSV(C,γ),这个作为安全检查,因为上面那个EcvC,γ求起来有时候很费时间。但这个只是个上限(我的理解就是这个可能是model的overfit的最大值,但不是真实值,真实值在这个之下)


这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值