PyTorch基础之激活函数模块中Sigmoid、Tanh、ReLU、LeakyReLU函数讲解(附源码)

本文介绍了神经网络中常用的激活函数,包括Sigmoid、Tanh、ReLU和LeakyReLU。Sigmoid和Tanh函数虽有非线性建模能力,但存在梯度消失问题;ReLU因其简单快速的收敛性而广泛使用,但可能导致神经元死亡;LeakyReLU则试图解决ReLU的死亡问题。选择激活函数需根据具体模型进行尝试和分析。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

需要源码请点赞关注收藏后评论区留言私信~~~

激活函数是神经网络中的重要组成部分。在多层神经网络中,上层节点的输出和下层节点的输入之间有一个函数关系。如果这个函数我们设置为非线性函数,深层网络的表达能力将会大幅度提升,几乎可以逼近任何函数,这里,我们把这些非线性函数叫做激活函数。激活函数的作用就是给网络提供非线性的建模能力。

一、Sigmoid函数

Sigmoid函数指一类S型曲线函数,为两端饱和函数。Sigmoid函数是使用范围最广的一类激活函数,在物理意义上最接近生物神经元

由于它的输出在(0,1)之间,所以还可以被表示为概率或者用作输入的归一化,即带有“挤压”的功能

Sigmoid函数图像与公式

torch.sigmoid():函数或方法 torch.nn.Sigmoid() :网络层 torch.nn.functional.sigmoid():层中方法,在forward中使用

 

Sigmoid函数很好地解释了神经元在受到刺激的情况下是否被激活和向后传递的情景,当取值接近0时几乎没有被激活,当取

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

showswoller

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值