
深度学习
Wqz-
这个作者很懒,什么都没留下…
展开
-
【深度学习】深入理解Batch Normalization批标准化
Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Training b...转载 2020-03-25 12:08:38 · 187 阅读 · 0 评论 -
卷积神经网络中的参数设定
文为转载,干货,点赞请转到原文。https://yq.aliyun.com/articles/610509卷积神经网络的卷积核大小、卷积层数、每层map个数都是如何确定下来的呢?看到有些答案是刚开始随机初始化卷积核大小,卷积层数和map个数是根据经验来设定的,但这个里面应该是有深层次原因吧,比如下面的手写字卷积神经网络结构图1,最后输出为什么是12个map,即输出12个特征?然后图2...转载 2020-03-25 11:37:49 · 5885 阅读 · 1 评论