[李宏毅-机器学习]支持向量机 Support vector machine

本文探讨了逻辑回归中Loss Function的选择,详细解释了hinge loss在linear SVM中的应用,以及如何通过引入kernel技巧减少计算量,将数据投影至高维空间以改善分类效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在逻辑回归中,loss function的选择

 

hinge loss

>1的数据,不是support vector,其他的是support vector

 

linear SVM

其中1就是间隔,为软间隔

为什么w是数据的线性组合?

从梯度下降的角度来看,当w初始化为0的时候,就相当于x的线性组合

只是当前维度空间的分类结果可能不理想

因此可以考虑把x投影到一个高维空间上

因此x和z都投影到高维平面,然后再计算x和z之间的关系,也就是两个高维向量的点乘

这样分两步的操作计算量太大,因此引入了kernal来减少计算量

x和z的点乘的平方得到的结果,就是把x和z投影到某一个高维空间再做点乘的结果

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值