感知机与支持向量机

本文对比了感知机和SVM的区别,指出感知机易导致过拟合,而SVM通过最大化分类间隔避免过拟合。SVM的改进包括引入hinge loss和L2正则化,分别对应早停策略和正则化项。SVM通过核方法可处理非线性问题,其优化目标是几何距离而非函数距离。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感知机:追求最大程度正确划分,最小化错误,容易造成过拟合

SVM:追求大致正确分类的同时,最大化分类间隔,一定程度上避免过拟合

1.普通感知机不能产生最大间隔,而SVM可以

2.带margin的感知机可以通过两种手段实现:

  • 早停
  • 加正则化项

感知机公平对待每个数据(只以分队为目的):

A:​

带margin的感知器:

B:​

损失函数就是hinge loss,这个改进使得感知器具备了产生最大间隔的潜质,在hinge loss的平坦区,允许数据被分错,撑起一个管道,类似于SVM。

带margin的感知器有了hinge loss,但依然不能产生最大间隔:

C:​

这和B式是等价的,只是将解​放大了​倍得到的解​。

如果​,得到了任意大的间隔函数

如果​,就退化成了不带margin的感知机

函数间隔不是目的,集合间隔才是目的(集合间隔=函数间隔/模长)


带margin的感知器可以通过增大权向量的模长而增大函数间隔,但是几何间隔却是不变的,这显然不是我们想要的。如果我们能限制模长的增长,就有可能获得大的几何间隔。而限制模长的方法有两个:早停和正则化。

早停

[图片上传失败...(image-5fb4b8-1572837521463)]

趁着权向量还没有来得及快速增大就停止学习。

正则化

加入对权向量的L2正则化,限制模长的增长:

所以,SVM可以视为对感知器的二阶改进:第一阶改进是加入了 [图片上传失败...(image-c8ee81-1572837521462)]

获得hinge loss,从而具备了产生大间隔的潜质;第二阶改进是加入了权向量的L2正则化项,从而避免产生无意义的大函数间隔,而是产生大的几何间隔。


  • 感知器和支持向量机都是二分类算法

  • 但是感知器比较原始,能处理的问题也就是二分类问题。但支持向量机不同,有了核方法的加持,SVM也可以处理非线性问题,回归预测。

    感知机是函数距离的和,支持向量机是几何距离的和。

    感知机化函数就是所有误分类点的几何距离,SVM的优化函数是参数的L2范数,支持向量机是smo优化方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值