sigmoid函数:将(-∞,∞)映射到(0,1),每一个输入都有一个特定的输出
Relu:将(-∞,∞)映射到(0,1),但是所有输入值为负的都将被映射到0,这样就无法分类了
本文探讨了两种常用的激活函数——Sigmoid和ReLU。Sigmoid函数将所有输入映射到(0,1)区间,每个输入对应特定输出,但存在梯度消失问题。而ReLU则将负数映射为0,正数保持不变,解决了Sigmoid的部分问题,但在某些情况下可能导致神经元死亡。
sigmoid函数:将(-∞,∞)映射到(0,1),每一个输入都有一个特定的输出
Relu:将(-∞,∞)映射到(0,1),但是所有输入值为负的都将被映射到0,这样就无法分类了
1881

被折叠的 条评论
为什么被折叠?