BP算法浅谈(Error Back-propagation)

本文介绍BP算法的基础知识,通过实例解释权重更新过程,探讨在复杂样本空间中如何拟合输入和输出。内容包括偏导、梯度的理解,并提供了简单的验证代码。

       最近在打基础,大致都和向量有关,从比较基础的人工智能常用算法开始,以下是对BP算法研究的一个小节。

      本文只是自我思路的整理,其中举了个例子,已经对一些难懂的地方做了解释,有兴趣恰好学到人工智能对这块不能深入理解的,可以参考本文。

      因为大部分涉及公式,我就直接贴图了,请谅解,如果需要全文可以联系@梁斌penny 谢谢。







通过带*的权重值重新计算误差,发现误差为0.18,比老误差0.19小,则继续迭代,得神经元的计算结果更加逼近目标值0.5

 

感想


 在一个复杂样本空间下,对输入和输出进行拟合

(1)      多少个hidden unit才能符合需要(hidden unit就是图中的P,Q)

(2)      多少层unit才能符合需要(本例为1层)

(3)      如果有n层,每层m个unit,k个输入,1个输出,那么就有K*m^(n+1)条边,每条边有一个权重值,这个计算量非常巨大

(4)      如果k个输入,1个输出,相当于将k维空间,投射到一个1维空间,是否可以提供足够的准确性,如果是k个输入,j个输出,j比k大,是否是一个升维的过程,是否有价值?

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值