先来张效果对比图:

Sigmoid
不过(0,0)点:

ELU(Exponential Linear Unit)

RELU (Rectified Linear Unit)

GELU(Gaussian Error Linear Units)



Swish 激活函数也叫Silu

转载自:
- https://mp.weixin.qq.com/s/BY5_NKrSOMQ0o4GxWUeYKA
- https://pytorch.org/docs/stable/generated/torch.nn.GELU.html
- https://blog.youkuaiyun.com/renwudao24/article/details/44465407
文章探讨了三种不同的激活函数在神经网络中的应用,包括ReLU的线性特性,GELU的高斯误差线性单元,以及Swish函数(又称Silu),并提供了PyTorch库中对GELU的实现链接,强调了这些函数对模型性能的影响。
908

被折叠的 条评论
为什么被折叠?



