激励函数

激励函数

线性 linear kernel
Identity function

非线性 non-linear kernel
Sigmoid、tanh 关系:tanh(x/2) = 2sigmoid(x)-1
relu

激励函数对比
1.Selu
全称:scaled exponential linear units
函数图像:
优点(适用场景)

2.Relu
全称:
函数图像:
优点(适用场景)

3.Leaky ReLU
全称:
函数图像:
优点(适用场景)

3.Elu
全称:
函数图像:
优点(适用场景)

4.Sigmoid
全称:
函数图像:
优点(适用场景)

5.Tanh

6.Identity
全称:
函数图像:
优点(适用场景)

优化器
Gradient descent
Adam

池化
最大池化
均值池化
Beta-Pooling(CRAE)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值