【深度学习】多分类神经网络-softmax函数

文章介绍了机器学习中多分类的两种方法——One-vs-Rest(OvR)和Many-vs-Many(MvM),并指出随着神经网络层次加深,这些方法计算成本高。softmax回归提供了一种更有效的方法,特别是在神经网络中,通过PyTorch的softmax函数处理多分类问题,避免手动实现时的溢出问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在机器学习中,会使用二分类算法的Many-vs-Many (多对多)和One-vs-Rest (一对多)模式来进行多分类。其中,OvR是指将多个标签类别中的一类作为类别1,其他所有类别作为类别0,分别建立多个二分类模型,综合得出多分类结果的方法。MvM是指把好几个标签类作为1,剩下的几个标签类别作为0,同样分别建立多个二分类模型来得出多分类结果的方法。

但是对于神经网络,随着网络层数上升,计算一次分类的成本会变得相当高,并不高效。而且有更好的方法解决多分类问题,即softmax回归

softmax函数

\sigma_k=\frac{e^{z_k}}{\sum ^Ke^z}

k代表标签数,公式的分子部分是多分类状况下某一个标签类别的回归结果的指数函数,分母是所有标签类别的回归结果的指数函数之和

pytorch调用softmax函数:

softmax要求输入dim参数来明确需要计算的是z矩阵的哪一维数据

会以dim那一维作为一类。比如一个二维tensor,dim=0意味着每一行是一类(softmax后每一列元素之和为1)。dim=1意味着每一个元素是一类(softmax后每一行元素值之和为1)

#z是线性回归后的结果
torch.softmax(z,dim=...)
#或者
from torch.nn import functional as F
F.softmax(z,dim=...

注意!如果自己敲公式想手动实现softmax函数极易出现溢出!建议还是直接使用torch中的softmax函数

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值