【3】激活函数

激活函数是神经网络中的关键元素,其引入增加了模型的非线性能力。sigmoid函数因梯度消失问题而限制了深层网络的训练,ReLU函数解决了这一问题并加速了梯度下降,但存在神经元死亡现象。Tanh函数是对sigmoid的改进,但依然有梯度消失问题。Swish函数作为平滑的非单调函数,表现优秀。选择激活函数需根据网络结构和需求,ReLU和Swish是常用选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、什么是激活函数?

在神经元中,输入input,通过加权求和之后再通过了一个函数的变换处理,这个函数就是激活函数(Activition Function)




2、激活函数的作用?

模型的表达能力不够,引入激活函数是为了添加非线性因素。

不添加激活函数的时候,无论多少层网络输出都是线性方程


添加了激活函数之后就可以解决类似下图这样一些线性不可分的情况:


通用近似定理:单隐层神经网络只要隐层神经元的个数足够多,可以以任何精度逼近任何连续函数。

所以使用激活函数就能将神经网络运用到很多其他非线性模型中去。



3、常见的激活函数?

(1)sigmoid 函数

        


特点:可以将输出压缩到0-1的范围;总是正数;有界;严格递增

缺点:会出现梯度消失(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值