机器学习sklearn之支持向量回归(SVR)

博客介绍了SVM除分类外还支持回归(SVR),其与传统回归不同,定义损失时容忍一定偏差,式子比SVM分类更复杂,但求解思路一致,包括定义目标函数等步骤,还提及后续计划以图片展现机器学习内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SVM除了具有线性分类和非线性分类之外,还支持回归(SVR)。与传统的回归问题有所不同,在定义损失的时候,容忍f(x)与y之间有一定的偏差,具体推导过程如下图。由于回归问题引入了容忍偏差,松弛变量,式子相较于SVM分类更复杂一些,但是总体的求解思路是一致的,包括:定义目标函数、目标函数转换为无约束优化问题、对偶问题、SMO求解α,根据KKT条件找支持向量并计算b
在这里插入图片描述上图中把W带入化简过程已省略,感兴趣的可以自己推一下,与SVM分类的化简过程相似,本人偷了个懒…
最近计划把所有常用的机器学习算法都从头到尾手写一遍,以后关于机器学习方面的内容大都以图片的形式展现,如果阅读困难可以留言交流,提前祝大家六一儿童节快乐,也祝我的母校110周年生日快乐!

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值