离上一次写有20天左右吧,最近一直在跑实验调参数,苦逼啊。
今天把ReLU函数换成BNLL,最后结果变稳定了而且有所提高。应该是之前的ReLU函数出现了不少死节点。
本文分享了一次实验调整经验:将ReLU激活函数替换为BNLL后,模型的稳定性得到了改善并且性能有所提升。之前使用ReLU时遇到了较多的死节点问题。
离上一次写有20天左右吧,最近一直在跑实验调参数,苦逼啊。
今天把ReLU函数换成BNLL,最后结果变稳定了而且有所提高。应该是之前的ReLU函数出现了不少死节点。
239
1277
203
5178
1265
1086

被折叠的 条评论
为什么被折叠?