四种常用的激活函数
(1)sigmoid函数
- 函数的表达式为:a=11+e−za=11+e−z
- 导函数:
本文介绍了吴恩达深度学习课程中的四种激活函数:sigmoid、tanh、ReLU和Leaky ReLU。sigmoid常用于二元分类输出层,tanh通常优于sigmoid。ReLU是默认激活函数,因其加速学习速度。Leaky ReLU改进了ReLU在负区的问题。对比中,ReLU及其变体显示了更好的性能。
8737
302

被折叠的 条评论
为什么被折叠?