从逻辑回归到SVM

本文详细介绍了从逻辑回归到支持向量机(SVM)的转变过程,通过分析代价函数的变化,揭示了SVM优化目标的形成。在SVM中,通过最大化间隔来实现更鲁棒的分类,避免了过拟合问题。文章通过图形解释了为何SVM倾向于选择能最大化间隔的决策边界,从而成为大间隔分类器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本篇博文介绍svm算法,从优化目标出发,分析svm的产生,以及产生svm解的原因。


逻辑回归中,我们发现,对于一个样本(x,y),对代价函数造成的影响是带来如下一项:



y=1时,实际是上式的第一项,产生的影响如下图所示:


y= 0时,实际是上式的第二项,产生的影响如下图所示:


现在,我们从这两个代价函数开始,构建svm.

针对y=1和y=0,我们分别将代价函数修改为下图的红线部分:


下面,我们根据逻辑回归的代价函数,得到svm的代价函数:

逻辑回归中,代价函数为:


        【A+λB的形式


svm中,我们将上式修改为:



【cA+B的形式,c=1/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值