【深度学习】Softmax 函数

本文介绍了Softmax函数的基本概念及其在分类任务中的应用。Softmax函数能够将向量压缩至[0,1]区间内,同时确保所有元素之和为1。文章还对比了Softmax与Sigmoid函数的区别,并探讨了其在深度学习中的使用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Introduction

Softmax函数,又称 归一化指数函数

该函数 是最流行的 分类任务目标函数,也是 Sigmoid函数 的一种 推广。可转换为交叉熵误差 (CE)

Softmax 将向量 等比例压缩[0, 1]之间,且保证 所有元素之和 为1

s o f t m a x ( i ) = e h y i ∑ j = 1 C e h j softmax(i) = \frac{e^{h_{y_{i}}}}{{\sum_{j=1}^C}e^{h_{j}}} softmax(i)=j=1Cehjehyi

举例:softmax( [1, 2, 3, 4, 1, 2, 3] ) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

Softmax 与 Sigmoid 的 异同

SoftmaxSigmoid
公式 σ ( z ) j = e z j ∑ k = 1 K e z k {\displaystyle \sigma (\mathbf {z} )_{j}={\frac {e^{z_{j}}}{\sum _{k=1}^{K}e^{z_{k}}}}} σ(z)j=k=1Kezkezj S ( x ) = 1 1 + e − x . {\displaystyle S(x)={\frac {1}{1+e^{-x}}}.} S(x)=1+ex1.
本质离散概率分布非线性映射
任务多分类二分类
定义域某个一维向量单个数值
值域[0,1](0,1)
结果之和一定为 1为某个正数

[1] 深度学习: 分类 目标函数 (交叉熵误差(CE) -> 焦点损失(FL))
[2] 深度学习: 目标函数
[3] [Machine Learning] logistic函数和softmax函数

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值