激活函数入门学习

激活函数是神经网络中关键组成部分,其作用在于引入非线性。ReLU是最常用的激活函数,适用于大多数情况,而Sigmoid常用于二分类问题的输出层。当遇到死神经元问题时,可以尝试使用LeakyReLU。在不确定的情况下,ReLU是一个好的默认选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本篇文章从外行工科的角度尽量详细剖析激活函数,希望不吝指教!
学习过程如下,先知道这个东西是什么,有什么用处,以及怎么使用它:

1. 为什么使用激活函数

2. 激活函数总类及优缺点

3. 如何选择激活函数

激活函数:神经网络神经元中,输入的 inputs 通过加权求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function
如下图所示:
激活函数
1.为什么使用激活函数?
为什么使用激活函数
2.激活函数总类及优缺点
1
22
3.如何选择激活函数?

  • 如果输出是 0、1 值(二分类问题),则输出层选择 sigmoid 函数,然后其它的所有单元都选择 Relu 函数。
  • 如果在隐藏层上不确定使用哪个激活函数,那么通常会使用 Relu 激活函数。有时,也会使用 tanh 激活函数,但 Relu 的一个优点是:当是负值的时候,导数等于 0。
  • sigmoid 激活函数:除了输出层是一个二分类问题,基本不会用它。
  • tanh 激活函数:tanh 是非常优秀的,几乎适合所有场合。
  • ReLu 激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用 ReLu 或者 Leaky ReLu,再去尝试其他的激活函数。
  • 如果遇到了一些死的神经元,我们可以使用 Leaky ReLU 函数。

以上内容总结多篇文章,供作者及刚入门小白学习,如有错误希望指出!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值