深度学习网络本质
深度学习网络本质是一种表示或者说映射网络
简单来说就是:输入一张图片,输出 是猫的概率。
那么什么是前向传播和反向传播呢?
前向传播就是:
输入一张图片,输出 是猫的概率。
反向传播就是:
计算这个概率值与实际的差距,叫做损失或者误差。误差将被反向传递给网络的每一层。
上一节中,我们使用了预训练网络的前向传播过程
使用网络做出预测,就是在使用网络前传播的过程
为什么训练网络的过程很慢
前向传播和反向传播本质上都是很快的,那为啥我们训练一个神经网络需要很长时间捏?
因为训练过程是一个迭代循环的过程,重复多次的前向传播和反向传播,在这个过程中,修改W和b.
卷积神经网络时间复杂度相比全连接网络要高很多,模型训练和预测需要耗费大量的时间。
本文深入浅出地介绍了深度学习网络的本质,即通过一系列的映射完成从输入到输出的转换。文章详细解释了前向传播与反向传播的概念及其在训练过程中的作用,并探讨了为何网络训练耗时较长的原因。
6107

被折叠的 条评论
为什么被折叠?



