简述感知机(perceptron)

本文深入解析感知机作为二类分类线性模型的工作原理,介绍感知机函数、损失函数及学习算法思想,探讨如何利用梯度下降法寻找最优参数,实现数据集的正确分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感知机是二类分类的线性分类模型(判别模型)。输入为实例的特征向量,输出类别取值+1或-1。

一、感知机函数

f(x)=sign(w\cdot x+b)

其中,w为权值向量,b为偏置。

sign(x)=\left \{ +1\quad x\geq 0;\quad-1\quad x< 0;\right\}

二、感知机学习的损失函数

假设数据集是线性可分的,感知机学习的目标是找出将数据集中正实例和负实例完全分开的分离超平面。那么对于上述的函数来说,我们的目的就是求得w和b的参数值,这样我们就能够确定最终的函数从而得到这个超平面。

如何去求w和b呢?我们想把正负实例点正确的分到超平面两侧,如果有错误分类的点出现我们又怎样去衡量它呢?为解决这两个问题,我们需要思考如何建立模型的损失函数。对于点和面来说,我们最容易想到的关联关系就是点到面的距离,因此我们将数据集中任意一点x_{0}到超平面的距离公式化如下:

\frac{1}{\left \| w \right \|}\left | w\cdot x_{0}+b \right |( \left \| w \right \|是w的二范式)

但仅仅这样还不能够被用作损失函数,因为我们想得到的是所有错误分类的点的损失,所以我们再次重新审视数据集,很容易发现它们的类别标签不是+1就是-1。也就是说如果模型预测错误,那么预测的类别将和它实际类别异号。故所有误分类的点一定满足下式:

-y_{i}(w\cdot x_{i}+b)>0

就此,我们得到感知机模型的损失函数L(w,b) = -\sum y_{i}(w\cdot x_{i}+b)

三、感知机学习算法的思想

为了极小化损失函数从而得到分离超平面,感知机算法使用梯度下降方法随机选取一个误分类点使其梯度下降。

\bigtriangledown _{w}L(w,b)=-\sum y_{i}x_{i}

\bigtriangledown _{b}L(w,b)=-\sum y_{i}

输入:训练数据集T={(x_{1},y_{1}),(x_{2},y_{2}),...,(x_{n},y_{n}))},y_{i}\in \left \{ +1,-1 \right \},学习率\eta (0<\eta \leq 1)

输出:f(x)=sign(w\cdot x+b)

  1. 选取初值w_{0},b_{0}
  2. 从训练集中选取一个实例点
  3. 如果-y_{i}(w\cdot x_{i}+b)\leq 0w\leftarrow w+\eta y_{i}x_{i},b\leftarrow b+\eta y_{i}
  4. 转至第二步i,直至训练集中没有误分类点

感知机算法的对偶形式:

其思想是将w和b表示为实例x_{i}和类别y_{i}的线性组合形式,然后通过求解其系数而得到w和b。那么假设w已经更新了n次,设\alpha _{i}=n\eta,从而我们便能够使用下述式子代替之前的w和b:

w=\sum_{j=1}^{n}\alpha _{j}y_{j}x_{j}

b=\sum_{j=1}^{n}\alpha _{j}y_{j}

输入:训练数据集T={(x_{1},y_{1}),(x_{2},y_{2}),...,(x_{n},y_{n}))},y_{i}\in \left \{ +1,-1 \right \},学习率\eta (0<\eta \leq 1)

输出:f(x)=sign(\sum_{j=1}^{n}\alpha _{j}y_{j}x_{j}\cdot x+b)

  1. 选取初值\alpha=0,b=0
  2. 从训练集中选取一个实例点
  3. 如果\sum_{j=1}^{n}\alpha _{j}y_{j}x_{j}\cdot x+b\leq 0\alpha \leftarrow \alpha +\eta ,b\leftarrow b+\eta y_{i}
  4. 转至第二步i,直至训练集中没有误分类点
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值