激活函数 | 优缺点 | 应用 |
---|---|---|
sigmoid | 范围在[0,1],无法将中间层均值化,0之外你的点梯度越来越小,学习速度慢 | 中间层一般不用,输出层如果是二分类则使用 |
tanh | 范围在[-1,1],可以将中间层均值话;0之外的点梯度小,学习速度慢 | 中间层 |
relu | 范围在[-,+]学习速度快 | 中间层 |
3.6 激活函数
最新推荐文章于 2025-04-07 22:29:13 发布
激活函数 | 优缺点 | 应用 |
---|---|---|
sigmoid | 范围在[0,1],无法将中间层均值化,0之外你的点梯度越来越小,学习速度慢 | 中间层一般不用,输出层如果是二分类则使用 |
tanh | 范围在[-1,1],可以将中间层均值话;0之外的点梯度小,学习速度慢 | 中间层 |
relu | 范围在[-,+]学习速度快 | 中间层 |