统计学习方法笔记7—支持向量机2

本文探讨了支持向量机(SVM)的学习算法,包括线性可分与线性不可分情况下的SVM,讲解了拉格朗日对偶性在求解最优化问题中的应用,介绍了软间隔最大化及合页损失函数的概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

7.1.4 学习的对偶算法

求解线性可分支持向量机的最优化问题:
在这里插入图片描述
运用拉格朗日对偶性,求解对偶问题得到原始问题的解。
拉格朗日对偶问题:https://blog.youkuaiyun.com/blackyuanc/article/details/67640844
在这里插入图片描述
(1)利用w,b求min L(w,b,a)
(2)求min(w,b,a)对a的极大
对偶问题的解与原始问题的解之间的关系:
在这里插入图片描述
在这里插入图片描述
线性可分支持向量机学习算法:
在这里插入图片描述
在这里插入图片描述
由a得出支持向量的概念:
在这里插入图片描述

7.2 线性支持向量机与软间隔最大化

7.2.1 线性支持向量机(线性不可分时的线性支持向量机)

线性不可分问题——软间隔:函数间隔加上松弛变量;目标函数加上惩罚参数C
硬间隔最大化——软间隔最大化:
在这里插入图片描述
在这里插入图片描述

7.2.2 学习的对偶算法

如何求解w,b的值:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
对偶问题的解与原始问题解的关系:
在这里插入图片描述
线性支持向量机学习算法:
在这里插入图片描述

7.2.3 支持向量

支持向量与a和C的关系:
在这里插入图片描述
参考:(软间隔的支持向量问题)https://blog.youkuaiyun.com/qq_34993631/article/details/79340747

7.2.4 合页损失函数

在这里插入图片描述
合页损失函数:
在这里插入图片描述
合页损失函数与0-1损失函数和感知机损失函数的图像:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值