人工智能基础算法之感知器(2)

本文深入探讨了感知器算法的收敛性,通过数学证明展示了在线性可分情况下,感知器最多经过有限次迭代就能找到正确分离超平面。此外,还介绍了两种感知器的衍生算法:平均感知器和权表决算法,分析了它们如何解决训练过程中的震荡问题,并强调了算法设计中的自适应思想和博弈思想。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

1.引言

        在上一篇文章中,我们介绍了感知器算法的基本原理,如果只是应用的话,到这里就可以了。但是,一些同学心里可能会有疑问:为什么经过有限次的迭代就一定可以找到那个能把正负样本分开的超平面?下面会给出相关证明;最后将介绍几种由感知器衍生而来的算法,感受其中所蕴含的思想。

 

2.感知器收敛证明

         已知条件:给定一个训练数据集\(T = \{ ({x_1},{y_1}),({x_2},{y_3}), \cdots ,({x_N},{y_N})\} \) ,

其中 \({x_i} \in {R^n},{y_i} \in \{  - 1,1\} ,i = 1,2, \cdots N\),并且数据集T是线性可分的,用数学关系式来描述线性可分:存在与 \({x_i}\)相同长度的向量u (\({\left\| u \right\|_2} = 1\) )和 \(\gamma  > 0\),使得 \({y_i} \cdot ({u^T}{x_i}) \ge \gamma \)。

        结论:令\(D = \mathop {\max }\limits_{1 \le i \le N} \left\| { {x_i}} \right\|\) ,则最多经过k次权值更新就可以得到分隔平面,其中,

                                                               \[k \le {\left( {\frac{D}{\gamma }} \right)^2}\]                                                     

        这一定理称之为Novikoff定理。

 

        定理证明:

        假设\(({x_i},{y_i})\) 是第k次分类错误的样本; \({\theta _k}\)是第k次分类错误,并更新后的权值。

        由于是误分类点,则 \(g({({x_i})^T}{\theta _k}) \ne {y_i}\),也就是说\({({x_i})^T}{\theta _k}{y_i} \le 0\)

        由权值更新等式 \({\theta _{k + 1}} = {\theta _k} +

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值