第二章总结 感知机模型

感知机(perceptron)是二分类的线性分类模型,属于判别模型

2.1 感知机模型

f(x)=sign(wx+b)f(x)=sign(wx+b)

sign是符号函数

感知机的解释:线性方程 wx + b = 0 对应于特征向量 RnRn 中的一个超平面,w(法向量) 和 b(截距) 这些参数确定这个超平面——分离超平面,这个超平面将特征空间划分为两个部分。

2.2 感知机学习的策略

2.2.1 数据集线性可分性(前提)

2.2.2 学习策略

感知机采用的损失函数是误分类点到超平面的总距离。

d=1||w|||wx0+b|d=1||w|||wx0+b|

对于误分类点
yi(wi+b)>0−yi(wi+b)>0

误分类点到超平面的距离是
1||w||yi(wi+b)−1||w||yi(wi+b)

所有误分类点到超平面距离
1||w||xiMyi(wi+b)−1||w||∑xi∈Myi(wi+b)

不考虑
1||w||−1||w|| ,感知机学习的损失函数为

L(w,b)=xiMyi(wixi+b)L(w,b)=−∑xi∈Myi(wixi+b)
2.3 感知机学习算法(原始形式和对偶形式)
2.3.1 原始形式

对损失函数进行最优化

minL(w,b)=xiMyi(wixi+b)minL(w,b)=−∑xi∈Myi(wixi+b)

使用随机梯度下降
wL(w,b)=xiMyixi∇wL(w,b)=−∑xi∈Myixi

bL(w,b)=xiMyi∇bL(w,b)=−∑xi∈Myi

参数更新
ww+ηyixiw←w+ηyixi

bb+ηyib←b+ηyi

ηη 为学习率。

2.3.2 对偶形式

实际上,可以从原始形式看出,参数更新的过程就是对 wbwb 修改的过程,设需要修改 nn 次,则 wb 的增量分别为 aiyixiaiyixiaiyiaiyi ,这里 ai=niηiai=niηi

w=w+i=1Naiyixiw=w+∑i=1Naiyixi

b=b+i=1Naiyib=b+∑i=1Naiyi

对偶算法的过程:

对每个数据实例 (xi,yi)(xi,yi) ,如果 yi(Nj=1ajyjxjxi+b)0yi(∑j=1Najyjxj⋅xi+b)≤0

aiai+ηai←ai+η

bb+ηyib←b+ηyi

其中 xjxixj⋅xi ,可以预先计算用Gram矩阵存储,也可以使用核方法代替,使之成为高维可分的核感知机。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值