激活函数softmax 与 sigmoid 的区别

本文对比了两种常用的激活函数:Softmax和Sigmoid。详细解释了它们的维度、公式、原理、适用场景、定义域、值域及特性。强调了Sigmoid常用于二分类,而Softmax则适用于多分类任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在神经网络学习的过程中不可避免的要学习到激活函数的使用。激活函数的介绍这里就不展开讲解。在这里主要是将激活函数中softmax和sigmoid的区分做一下记录。

维度softmax()sidmoid()
公式 σ ( z ) j = e z j ∑ k = 1 K e z k \sigma(z)_j=\frac {e^{z_j}}{\sum^K_{k=1}e^{z_k}} σ(z)j=k=1Kezkezj S ( z ) = 1 1 + e − z S(z)=\frac{1}{1+e^{-z}} S(z)=1+ez1
原理离散概率分布非线性映射
多用于多分类二分类
定义域某一维度的向量一个实数
值域[0,1](0,1)
1一个正数

注:通常在二分类中使用sigmoid作为最后的激活层。在多分类单标签中使用softmax作为激活层,取概率最高即可。多标签问题中使用sigmoid作为激活层,相当于把每一个类别都当成了二分类来处理。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值