
cnn
文章平均质量分 88
泡温水澡的青蛙
先做好10000小时的功夫
展开
-
笔记:batch normalization:accelerating deep network training by reducing internal covariate shift
概述:机器学习系统中输入分布不均称为covariate shift。对于复杂网络系统,某层输入分布不稳定称为internal covariate shift.本文提出了batch normalization技术来解决deep neural network训练中这个的问题。原创 2016-03-06 11:37:44 · 3619 阅读 · 0 评论 -
笔记:Deep fried convnets
这是ICCV15的一篇文章。文章用kernel approximation的fastfood方法,来对CNN中的全连接层进行替换,从而减少CNN中参数的个数,减少内存的消耗。原创 2016-02-26 15:01:51 · 2949 阅读 · 2 评论 -
1*1的卷积核与Inception
本文介绍1*1的卷积核与googlenet里面的Inception。原创 2016-11-30 18:01:04 · 37060 阅读 · 14 评论