Tensorflow
馒头苦雪的包子
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
用tf.train.exponential_decay调节learning rate
事情的起因是这样,训练了一个模型发现Loss一直下不去,看了loss曲线以为收敛了。结果在测试数据上一塌糊涂,再跑去训练集上跑测试,结果当然比测试的好,但是很明显看出来没有训练好,因为有太过的TF。 耐心的翻了一下原始paper,发现用的learningrate 不一样,原因是原始paper是没有用Pretrain模型,而自己用了vgg pretrain 模型。paper:learning rate = 1e-3.自己是learning rate = 1e-4 一开始觉得没有错呀,如果从随机开始训练是需要一原创 2020-08-20 15:51:31 · 453 阅读 · 0 评论 -
不需要initializer 解决Tensorflow: Attempting to use uninitialized value 问题
Load model 遇到问题,网上一堆说要sess.run(tf.global_variables_initializer()) 初始化完是可以解决这个问题,但是实际上模型并没有全部Load进来。 问题在saver的创建,model.reference 要早于saver的创建。 修改完以后不需要global_variable_initializer可以Load Before saver = tf.train.Saver(variable_averages.variables_to_res原创 2020-07-27 18:22:15 · 668 阅读 · 0 评论
分享