【神经网络】激活函数

神经网络通过线性组合与激活函数构建神经元,多层网络形成深度学习。激活函数如tanh、sigmoid和ReLU,用于处理非线性问题。选择合适的激活函数对优化过程至关重要,例如ReLU能有效防止梯度消失问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经网络

什么是神经网络,最简单的神经网络是线性组合wx+bwx+bwx+b,加激活函数ϕ(wx+b)\phi(wx+b)ϕ(wx+b),就构成一个神经元,多个神经元构成一层网络,多层网络就是深度学习,神经网络。
神经网络计算了属于每个类的概率,选择概率最大的就是应该属于的那个类。总结就是,神经网络计算的是p(y∣x)p(y|x)p(yx),即对于输入xxx,计算属于每个类的概率,选择概率最大的那个类。
如何选择下一层神经元的个数捏?This is really a fantistic job. I don’t know now.
CNN,RNN都是是神经网络的一种。

激活函数

神经网络的激活函数,使得神经网络可以处理非线性问题。
如果不能选择合适的激活函数,很难看到优化效果。
常用的激活函数有:
反正切函数:tanh(z)tanh(z)tanh(z)
sigmoid函数:g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}g(z)=1+ez1
relu: g(z)=max(z,0)g(z)=max(z,0)g(z)=max(z,0)
不知道名字是怎么起的,大家都这么叫,那就这么叫吧!选择这些函数作为激活函数是因为这些函数是可导的,且导数容易获得,这在反向传输计算权重的时候是很重要的。同时可导的函数具有很多优良的性质。网络加深是,反向传输会导致梯度爆炸、梯度消失的问题,这时候relu可以有效的避免这个问题,因为relu的导数是1和0。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值