深度学习之Sigmoid 和 Softmax的异同点

本文深入探讨了Sigmoid和Softmax函数的特性及应用。Sigmoid函数用于二分类问题,其导数便于梯度下降算法计算。Softmax函数则应用于多分类任务,将向量转换为概率分布。两者在神经网络中扮演关键角色。

sigmoid 函数

在这里插入图片描述
在这里插入图片描述
函数的基本性质:

1、定义域:(−∞,+∞)
2、值域:(−1,1)
3、函数在定义域内为连续和光滑函数
4、处处可导,导数为:f′(x)=f(x)(1−f(x))

softmax函数

在这里插入图片描述
相同点
都可以做二分类,求的都是 cross entropy loss(交叉熵损失)
不同点

  1. sigmoid将一个real value映射到(0,1)的区间,用来做二分类。
  2. softmax 把一个 k 维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….),其中 bi 是一个 0~1 的常数,输出神经元之和为 1.0,所以相当于概率值,然后可以根据 bi 的概率大小来进行多分类的任务。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值