番外篇 | 常用的激活函数汇总 | 20+种激活函数介绍及其公式、图像等

前言:Hello大家好,我是小哥谈。激活函数(Activation Function)是神经网络中的一种重要概念,用于控制神经网络中神经元的激活方式。在传统的神经网络中,激活函数被用来将神经元的输出从数值转换为可以被神经网络其他部分理解的非数值形式。激活函数通常被定义为神经元的输出与其输入之间的关系,并能够为神经网络提供非线性特性,这对于解决某些复杂问题(如分类和回归)非常重要。🌈 

     目录

🚀1.基础概念

🚀2.常见激活函数介绍

🍀🍀2.1 ELU

🍀🍀2.2 HardShrink

🍀🍀2.3 Hardsigmoid

🍀🍀2.4 HardTanh

🍀🍀2.5 Hardswish

🍀🍀2.6 LeakyReLU

🍀🍀2.7 LogSigmoid

🍀🍀2.8 PReLU

🍀🍀2.9 ReLU

🍀🍀2.10 ReLU6

🍀🍀2.11 RReLU

 🍀🍀2.12 SELU

🍀🍀2.13 CELU

🍀🍀2.14 Sigmoid

🍀🍀2.15 SiLU

🍀🍀2.16 Mish

🍀🍀2.17 Softplus

🍀🍀2.18 Tanh

🍀🍀2.19 Tanhshrink

🍀🍀2.20 Threshold

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小哥谈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值