深度学习之激活函数详解

激活函数在神经网络中起到引入非线性的作用,避免线性模型的限制。常见的激活函数有Sigmoid、Tanh、Softmax、ReLU及其变种。Sigmoid和Tanh存在梯度消失问题,而ReLU因其计算效率高且在正数域无饱和现象而广泛使用,但可能产生‘死ReLU’问题。Softmax常用于多分类任务,输出归一化为概率。Leaky ReLU和PReLU试图解决ReLU的‘死神经元’问题,Maxout函数提供更强的拟合能力但增加计算量。选择激活函数时需考虑其优缺点及应用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

激活函数是什么?

激活函数, 即Activation Function, 有时候也称作激励函数. 提到激活函数,就不得不先说一下神经网络.

神经网络中最基本的成分是神经元(neuron)模型, 每个神经元与其他神经元相连.如果某神经元的电位超过了一个'阈值'(threshold), 那么它就会被激活, 即'兴奋'起来.当它'兴奋'时就会向相连的神经元发送化学物质,从而改变这些神经元内的电位.

下图是一个简单的神经元模型

它接收N个输入X1, X2, ... ,Xn. 并为每个输入赋予一个权重W1, W2, ... ,Wn. b是偏置参数(可以理解为为了更好的达到目标而做调整的参数),数学公式为:

  • X是该神经元接受的N个输入
  • W是N维的权重向量
  • z 表示一个神经元所获得的输入信号x的加权和,称为神经元的状态
  • f激活函数
  • a为神经元的活性值,也即该神经元的输出<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值