关于softmax函数

Softmax在输出层的应用及示例
博客介绍了softmax主要用于输出层,可将一维矩阵元素量化成概率值,更符合人类对预测准确率的直观感受。还给出了其公式,并以mnist为例,展示了softmax的应用及后续loss函数的计算,其中y为one - hot类型。

softmax主要用于输出层,作用是将所得一维矩阵中每个元素的大小量化成概率值。更符合人类直观感受所预测准确率。
其公式为:
在这里插入图片描述
如在mnist中应用。xw+b所得是一个[0,1,2,3,4,5,6,7,8,9]一维矩阵,此时加入pre = tf.nn.softmax(xw+b)得出是[0,1/45,2/45,3/45,4/45…9/45]元素为各个数字的概率大小。在其后的loss函数中,利用loss=tf.reduce_mean(tf.squere(y-pre))。这里y是one-hot类型。假设y是数字3,则其one-hot为[0,0,0,1,0,0,0,0,0,0]。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值