常见的激活函数





为什么说relu是非线性激活函数?
1.relu是分段函数
2.relu本质上是分段线性激活函数,但可以不断分段逼近非线性激活函数
当该网络足够复杂时,理论上relu可以逼近任意非线性激活函数
激活函数有什么性质?
1.非线性:当激活函数是非线性的,一个两层的神经网络就可以逼近所有函数。
2.可微性:当优化函数是基于梯度的时候,都体现该性质
3.单调性:对于单层网络而言,能保证时凸函数
4.f(x)≈x:激活函数满足这个形式时,如
ReLU:非线性激活函数的解析与特性
本文讨论了ReLU作为非线性激活函数的特点,包括它是分段线性函数、理论上可以逼近任意非线性、关键性质如可微性、单调性以及对初始参数设置的影响,以及输出值范围对优化稳定性的影响。





1.relu是分段函数
2.relu本质上是分段线性激活函数,但可以不断分段逼近非线性激活函数
当该网络足够复杂时,理论上relu可以逼近任意非线性激活函数
1.非线性:当激活函数是非线性的,一个两层的神经网络就可以逼近所有函数。
2.可微性:当优化函数是基于梯度的时候,都体现该性质
3.单调性:对于单层网络而言,能保证时凸函数
4.f(x)≈x:激活函数满足这个形式时,如
1万+
3755

被折叠的 条评论
为什么被折叠?