神经网络完善之路
文章平均质量分 75
like_study_cat
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
(..)用C++实现神经网络前向传播算法
。。原创 2019-12-15 16:55:46 · 277 阅读 · 0 评论 -
(六)模型测试
训练次数太少,结果就先不考虑了。另外train代码中修改的地方是,为了测试时获取前向推到结果,给logits创建op操作tf.identity(logits,‘logits’)原创 2019-12-15 16:53:54 · 200 阅读 · 0 评论 -
(五)训练过程中加入验证过程
计算准确率加入计算图中,在会话中,喂的数据集是验证数据集,可以设置每200步验证一次。注:无论是训练集还是验证集,准确率都是得到的一个batch的。 ...原创 2019-12-13 18:38:38 · 948 阅读 · 0 评论 -
(四)加入模型保存和加载
代码变动部分: logits, train_op, loss, maintain_averages_op, accuracy = simplenet(x,y,class_num) saver = tf.train.Saver() init = tf.global_variables_initializer() with tf.Session() as sess: sess.ru...原创 2019-12-13 11:24:01 · 158 阅读 · 0 评论 -
(三)加入指数滑动平均算法
每个step之后,求滑动平均。原创 2019-12-11 19:56:50 · 199 阅读 · 0 评论 -
(二)加入bn层
Batch-normalized 应该放在非线性激活层的前面还是后面? 作者:论智 链接:https://www.zhihu.com/question/283715823/answer/438882036 来源:知乎 在BN的原始论文中,BN是放在非线性激活层前面的(arXiv:1502.03167v3,第5页)We add the BN transform immediately before ...原创 2019-12-11 15:30:45 · 5222 阅读 · 1 评论 -
(一)搭建一个最简单的3层卷积网络做分类
# coding=utf-8 # 数据集形式: # ./dataset: # train: # cat: # cat_001 # cat_002 # cat_003 # . # ...原创 2019-12-10 18:02:57 · 451 阅读 · 0 评论
分享