架构完第二个网络后,我发现跑着跑着会出现 error==cudaSuccess(77 vs. 0)的错,和前两天那哥们遇到的很像,google之,发现github上有人提过,应该是梯度爆炸,导致某个数超过float的表示范围,因为每次迭代个几十次,loss就开始爆炸式增长,我觉得需要加个bn层试试了。
加完发现还是报错,而且一次迭代都跑不下去了,这就很尴尬了。
明天试试想办法调一调参数,一开始loss就跑到87.3365,没法玩儿了!
听说bn层是个好东西,加快训练速度,是不是这玩意儿导致我发散速度也快了哦。。。

被折叠的 条评论
为什么被折叠?



