1. 使用relu激励函数要比较小心,因为relu在激活值为负的情况下的导数恒等为0,就等于这个神经元死了。训练到后期,准确度或者输出突然降为0,可以考虑是不是relu的问题
如果你的输入样本数据有负数,我用leaky_relu实测效果比relu更好。
1. 使用relu激励函数要比较小心,因为relu在激活值为负的情况下的导数恒等为0,就等于这个神经元死了。训练到后期,准确度或者输出突然降为0,可以考虑是不是relu的问题
如果你的输入样本数据有负数,我用leaky_relu实测效果比relu更好。