机器学习技法------对偶SVM

本文探讨了SVM的对偶问题,通过转换原始SVM最小化问题,证明了拉格朗日函数与原问题等价。讨论了如何在无额外限制条件下求解对偶问题,并阐述了SVM对偶问题与原始问题的强对偶关系及其成立条件。最后,介绍了求解对偶问题的优化方法,包括求导和KKT条件的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文章目录

SVM对偶问题

原始SVM问题如下
最小化一个具有n个条件限制的公式
其中zn是xn的非线性转化
在这里插入图片描述

定义拉格朗日函数
在这里插入图片描述

证明拉格朗日函数和原来具有限制的最小化问题是等值的
此时SVM转化为 当给定一个b和w 求解 L(b,w,α)的最大值 之后在所有给定的b,w中选择一组 使得 所有的L(b,w,α)中最小的一个
为了证明写成一个没有限制的SVM的形式也是和有限制的形式是一样的可以假设
如果此时w,b不满足上述限制 即 1-yn(wTzn+b)为正 那么对于一个正的α乘积最大值为无穷的
同理对于满足上述不等式的w,b 当α为0时取到最大值 所以
转化后的SVM式子依然满足上述限制

在这里插入图片描述
在这里插入图片描述

最大最小问题转化

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值