偶尔看到了这篇文章,感觉作者写的很容易理解,对于初步认识CNNs有很大的帮助,若想查看原文,请点击此处。
关于神经网络的学习方法,总结起来的要点有以下几点:
- BP算法
- 激励函数
- 正则化与交叉验证等其他防止过拟合的方法
BP神经网络在之前的工作中取到了不错的效果,但是在Micheal Nilson的数的第五章,描述了之前的神经网络在增加多个隐含层之后训练效果会大大下降,也就是说,对于层数过多的网络训练效果不理想,如何训练深层的神经网络成了一个问题,这就是深度学习的由来。
深度学习近些年来很火,尤其是在自然语言处理领域,其取得的成就也是巨大的。之前我对深度学习是有畏惧心理的,因为我觉得挺难的,后来慢慢接触,发现这个也是一个循序渐进的过程,还是要有信心。
深度学习一个最广泛的应用就是卷积神经网络(deep convolutional neural networks),也就是CNN。这篇文章就简要说一下CNN模型的基本模型。
1. Introduction of Convolutional Networks
还是以之前的手写数字识别为基本,阐述CNN。
首先从之前的BP神经网络慢慢过渡到CNN,回顾之前的手写识别问题,我们识别一副28*28的手写图片,我们将图片转换成像素,然后手写黑色点得像素点标注为1,其他空白的像素标注为0,因此形成了28*28个BP神经网络输入层,然后我们设计了一个30个神经元的中间层,以及最后的10个神经元的输入层,其典型结构如下:

本文介绍了深度学习中的卷积神经网络(CNN)基础知识,包括局部感受野、权重共享和池化层的概念,以及它们在解决手写数字识别问题中的应用。通过理解这些基本模型,为后续深入探讨CNN打下基础。
最低0.47元/天 解锁文章
1271

被折叠的 条评论
为什么被折叠?



