
深度学习
一只学渣男友狗
这个作者很懒,什么都没留下…
展开
-
全连接层(转)
参考链接:https://mp.weixin.qq.com/s/NrHD_BnkFc1Dzv5L5r2KsA将原图经过一系列的卷积+ReLU+池化,这个时候我们的得到的输出图片已经只剩下原图的一些“高级特征”了。而全连接层的目的就是使用这些特征将输入图基于训练数据集进行分类。它会把连接所有的特征将输出的值送给分类器(比如softmax分类器)。官方的图大家就会明白了。最后的两列小圆球就...转载 2020-04-08 10:48:01 · 632 阅读 · 0 评论 -
神经网络的计算及paddding为same和valid区别
tensorflow下的程序,很多都是采用padding='SAME',因此如何计算经过卷积操作以后输出层的尺寸,这个时候就要涉及到padding了。卷积操作以后out=(input+2padding-kernel)/stride+1*******************************************************************************...转载 2020-04-08 10:41:35 · 3034 阅读 · 0 评论 -
深度学习中dropout的理解(转)
参考连接:https://blog.youkuaiyun.com/stdcoutzyx/article/details/49022443https://blog.youkuaiyun.com/program_developer/article/details/807377240、对dropout的理解(动机论)虽然直观上看dropout是ensemble在分类性能上的一个近似,然而实际中,dropout...转载 2020-04-08 09:43:49 · 1822 阅读 · 0 评论 -
神经网络的正向传播和反向传播(转)
反向传播:重点掌握链式法则(偏导的求法)感谢博主,以下计算参考链接:https://www.cnblogs.com/charlotte77/p/5629865.html****************************************************************************输入→卷积(激活函数)……→输出以上图为例,并赋值,分别计算...转载 2020-04-07 22:27:58 · 3378 阅读 · 0 评论 -
梯度下降算法
这是我看到的最容易理解的梯度下降算法,感谢博主大人https://www.jianshu.com/p/c7e642877b0e转载 2019-09-21 20:08:27 · 121 阅读 · 0 评论