loss = nan
把学习率调小,甚至调到0,观察loss,loss此时不应该为nan了,因为整个网络都不更新了
可能和网络初始化有关,贾洋清说初始化不好,lr=0.0001都可能很大了。。。
也有人说手动试多种初始化参数,把bias调0.1
再给个github的链接
https://github.com/BVLC/caffe/issues/409#issuecomment-42977319
本文探讨了解决在训练神经网络过程中遇到的loss值为nan的问题。建议首先尝试降低学习率,甚至设置为0来观察变化;其次检查网络的初始化是否合理,推荐手动调整多种初始化参数并尝试将bias设置为0.1。
loss = nan
把学习率调小,甚至调到0,观察loss,loss此时不应该为nan了,因为整个网络都不更新了
可能和网络初始化有关,贾洋清说初始化不好,lr=0.0001都可能很大了。。。
也有人说手动试多种初始化参数,把bias调0.1
再给个github的链接
https://github.com/BVLC/caffe/issues/409#issuecomment-42977319
1689
1930

被折叠的 条评论
为什么被折叠?