tensorflow中Relu激活函数
引用API:tensorflow.nn.relu(x)
初学者建议选择Relu激活函数
Relu激活函数
Relu激活函数是一个分段函数,只需要考虑值是否大于0,收敛速度大于sigmod激活函数和tanh激活函数
优点:解决了梯度消失问题,值都在正区间内
只需判断输入是否大于0,速度快
提供了神经网络的稀疏表达能力
缺点:输出非0均值,收敛慢
由于小于0的不去计算,造成一部分神经元死亡,永远不会被激活,导致
相应的参数不会被更新
最好是改进随机初始化,减小学习率,避免过多的负数特征送入Relu函数