从零开始学人工智能(11)--Python · 神经网络(四*)· 网络

感谢关注天善智能,走好数据之路↑↑↑

欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!

对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。


作者:射命丸咲 Python 与 机器学习 爱好者

知乎专栏:https://zhuanlan.zhihu.com/carefree0910-pyml

个人网站:http://www.carefree0910.com


与 tensorflow 版本类似,我们要先定义一个能把输入变成输出的函数(输出函数)和一个用来训练我们模型的函数(训练函数)、然后定义一些函数评估我们的模型。由于不像 tensorflow 那样把最终损失化为了一个数、所以我们的输出函数(前向传导算法)相比之下形式很简单:

需要指出的是,由于 BP 算法是自己实现的、所以需要把激活值记录下来以减少 BP 算法中的计算量(因为许多激活函数【比如 Sigmoid】的导函数用函数值来算会比用输入算块一些)

训练函数的话就比 tensorflow 版本要复杂了、因为要手动进行梯度下降:

可以看到里面用了大量 Optimizers 相关的东西,若有需要的话可以参见这篇文章

这里我们只需知道 self._opt 这个函数能够利用激活值和梯度帮我们更新相应的变量就行

可能会有观众老爷注意到我在定义 _deltas 这个存储梯度的列表时调用的是 bp_first 函数,这是什么意思呢?不知大家还记不记得、在 BP 算法推导过程中、最后一层(亦即 CostLayer)的梯度计算和其余层是不太一样的,这里这个 bp_first 即是 CostLayer 对应的 BP 算法

模型搭好之后就能跑一跑并评估一下了。我写了一个小的可视化函数并生成了一个螺旋线数据来进行测试和评估,效果大概如下:

模型结构是两层 ReLU 各 24 个神经元,CostLayer 是 Softmax + Log Likelihood,Optimizers 选择的是 Adam。迭代了 1000 次,耗时 1 秒左右。值得一提的是,用 tensorflow 来训练的话要 3 秒左右(GPU 版本),观众老爷可以想想这是为什么 ( σ'ω')σ (事实上,tensorflow 本身不适合用于训练规模太小的模型、不仅限于这一种情况)

以上,一个完整的纯 Numpy 实现的神经网络结构就搭建完了,合共 150 行 Python 代码,比 tensorflow 版本的要长一些

希望观众老爷们能够喜欢~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值