有个TensorFlow项目,调用Keras的https://keras.io/zh/layers/advanced-activations/
LeakyReLU
keras.layers.LeakyReLU(alpha=0.3)
带泄漏的 ReLU。
当神经元未激活时,它仍允许赋予一个很小的梯度: f(x) = alpha * x for x < 0
, f(x) = x for x >= 0
.
输入尺寸
可以是任意的。如果将该层作为模型的第一层, 则需要指定 input_shape
参数 (整数元组,不包含样本数量的维度)。
输出尺寸
与输入相同。
参数
- alpha: float >= 0。负斜率系数。
然后我想去调用Keras底层代码,点进去发现又是层层调用啊。
https://github.com/keras-team/keras/blob/master/keras/layers/advanced_activations.py#L19
class LeakyReLU(Layer):
"""Leaky version