
tensorflow
qq_27559181
计算机小鱼,成长中。。。。。。
展开
-
tensorflow的反向传播(backpropagation)
由于最近在啃EMCapsule(EMCapsule论文)的源码(EMcapsule源码),或者说在啃tensorflow源码,由于没有系统学习过tensorflow,所以看起代码那叫一个蛋疼菊紧,特别是看到capsule_em.py 中的em_routing时,感到很疑惑,如此复杂的操作,这个network是如何实现反向传播的。关于反向传播的知识,可以参考反向传播,注意tensor的反向传播中实际...原创 2018-04-10 20:05:44 · 4389 阅读 · 0 评论 -
对Batch_Normalization的理解
大家都说batch normalization 具有1)加快网络收敛2)使训练更加稳定(即对参数的初始化和学习率不敏感)的作用,但是在阅读BNs的原文之前,笔者对上面的两个作用的理解也只是停留在文字层面,在阅读完原文之后对BNs有了一个比较具体的认识,今天我们就来探究以下BNs是怎么实现上述的两个作用的。在此之前,建议大家先看看知乎上对于BNs的高票回答,大佬们对于BNs的算法讲解的还是比较清晰的...原创 2018-04-27 14:40:13 · 1571 阅读 · 0 评论