多分类-softmax

本文来自于网易云课堂

Softmax回归

前面介绍的都是2分类问题,如果是多分类的问题怎么办呢?
这里写图片描述
最后一层输出的是一个向量,里面代表了各个概率,其总和为1。
这里写图片描述
对于l-1层,训练过程和二分类一样,对于l层,激活函数有些区别,需要输入一个4*1维向量然后归一化输出4*1维向量。
Z[l]=W[l]a[l1]+b[l] Z [ l ] = W [ l ] a [ l − 1 ] + b [ l ]
然后计算一个临时变量t
t=ez[l] t = e z [ l ]
a[l]=ez[l]4j=1ti a [ l ] = e z [ l ] ∑ j = 1 4 t i
以没有隐藏层的网络为例,可以看出,其便捷都是线性的。
这里写图片描述
softmax与所谓的hardmax相反。对于hardmax来说,它会把向量中最大的量置为1,而其他值变为0,感觉很硬。而softmax让这种从z到概率的映射感觉更为温和。当分类问题变成两类,即C=2,那么softmax就会退回到logistic回归。比如softmax回归输出为[0.8 0.2],但是由于向量元素和为1,其实只需要知道1个就可以了,这样就变成了logistic回归。
这里写图片描述
这里写图片描述
实际上,损失函数的表达式是这样的:
L(y^,y)=4j=1yjlogy^j L ( y ^ , y ) = − ∑ j = 1 4 y j l o g y ^ j
因为 y^ y ^ 是小于1的,所以前面加了-,假如 y2=1,y1=y3=y4=0 y 2 = 1 , y 1 = y 3 = y 4 = 0 ,因为梯度下降法是用来减少损失的,所以应该让 y^2 y ^ 2 更大,这样损失就小。这个过程和极大似然法比较相似。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值