机器学习之感知机

感知机是二类分类的线性模型,通过寻找分离超平面将实例分为正负两类。学习策略基于误分类,采用梯度下降法最小化损失函数。算法包括原始形式和对偶形式,直至所有训练数据线性可分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感知机是二类分类的线性分类模型,输入为实例的特征向量,输出为实例的类别,取+1和-1二值,感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性划分的分离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。

感知机模型:

f(x)=sign(w*x +b)
其中,w和b是感知机的模型参数,w属于Rn,叫做权值或者权值向量。b属于R,叫做偏置,w*x标识w和x的内积,sign是符号函数:x>=0 sign(x)=1;x<0,sign(x)=-1;

感知机几何解释:w*x+b=0;对应一个超平面,w是平面的法向量,b是截距;

感知机学习策略:

线性可分性:

对于一个数据集:T={(x1,y1),(x2,y2).....(xn,yn)}  xi属于X,yi属于Y属于{+1,-1},i=1,2,3......n;如果存在超平面S w*x+b=0 能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有yi=+1的实例i,都有w*xi+b>0; 对于所有yi=-1的实例i,都有w*xi+b<0;则称数据集T为线性可分数据集,否则为线性不可分;

感知机学习策略:

目的是求一个超平面能否将正实例和负实例完全正确地分开;为了得到这个平面,需要确定w和b;需要定义一个学习策略,及定义(经验)损失函数并将损失函数极小化;
损失函数的一个自然选择是误分类的点数,但是这样的损失函数不是参数w和b的连续可导函数,不易优化,损失函数的另一个选择是误分类点到超平面的总距离,这是感知机所采用的,为此,首先写出输入空间中任一点x0到超平面S的距离:
                 是w的范数。


对于误分类的数据(xi,yi)来说,;因为w*xi+b>0时,yi=-1,而当w*xi+b<0时,yi=+1,因此,误分类点xi到超平面S的距离是:

假设误分类点集合为M,则误分类点到超平面S的总距离为:
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值