动手学深度学习 -- 3.4 Softmax回归

Softmax回归

Softmax回归主要解决深度学习中的分类问题。

问题假设

假设:我们有许多照片,这些照片只包含猫、狗、鸡,则定义表示猫的向量为(1,0,0),表示狗的向量为(0,1,0),表示鸡的向量为(0,0,1)。
特别注意:这里只考虑一张照片只存在一个动物的情况,不包含一张照片既有猫,又有狗

模型建立

之后我们建立softmax模型。假设我们的图片是2x2的大小,用来分辨三个种类(猫狗鸡),则有了如下的四个输入,三个输出的softmax模型。
在这里插入图片描述

输出层计算

在这里插入图片描述

Softmax回归层

这样得到的 o1o_1o1[−∞,∞][-\infin , \infin][,]的值,我们需要将该值缩放到范围[0,1][0,1][0,1]内。
因此引入Softmax回归层,将值约束到[0,1][0,1][0,1]内。
在这里插入图片描述
softmax运算符(softmax operator)解决了以上两个问题。它通过下式将输出值变换成值为正且和为 1 的概率分布:

y^1,y^2,y^3=softmax⁡(o1,o2,o3)\hat{y}_{1}, \hat{y}_{2}, \hat{y}_{3}=\operatorname{softmax}\left(o_{1}, o_{2}, o_{3}\right)y^1,y^2,y^3=softmax(o1,o2,o3)

其中

y^1=exp⁡(o1)∑i=13exp⁡(oi),y^2=exp⁡(o2)∑i=13exp⁡(oi),y^3=exp⁡(o3)∑i=13exp⁡(oi)\hat{y}_{1}=\frac{\exp \left(o_{1}\right)}{\sum_{i=1}^{3} \exp \left(o_{i}\right)}, \quad \hat{y}_{2}=\frac{\exp \left(o_{2}\right)}{\sum_{i=1}^{3} \exp \left(o_{i}\right)}, \quad \hat{y}_{3}=\frac{\exp \left(o_{3}\right)}{\sum_{i=1}^{3} \exp \left(o_{i}\right)}y^1=i=13exp(oi)exp(o1),y^2=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Elsa的迷弟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值