softmax 理解

softmax函数起源于hardmax,它提供了一个平滑的概率分布,尤其在神经网络中,由于其可导性,对于参数更新至关重要。softmax将数值指数化,增强最大值的优势,常用于多分类问题中的概率输出。文章涵盖了softmax的起源、常见公式及推导过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、softmax由来

softmax是根据hardmax得来,hardmax: z=max(x,y),而softmax是 z = l o g ( e x + e y ) z=log(e^x+e^y) z=log(ex+ey)当x>>y时softmax下的 z=x.

为了更加清楚理解:我们固定y=1,比较一下,softmax与hardmax图像:
在这里插入图片描述
在这里插入图片描述
由图像可以知道softmax比hardmax平滑(大概猜出为什么叫softmax了),这给了它特性,可导,可导对神经网络更新参数非常重要。同时softmax让相互比较的数都指数化,这会让提高分数之间的差异( x = 10 , y = 20 , y − x = 10 ; e 20 − e 10 = 485143169 x=10,y=20,y-x=10;e^{20}-e^{10}=485143169 x=10,y=20,yx=10e20e10=485143169)让最大值占主导地位。

2、常见softmax公式

常见softmax公式

3、softmax推导

softmax函数的正推原理——softmax前世今生系列(1)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值