对TensorFlow中tf.nn.softmax()函数机器损失函数的理解

本文介绍了TensorFlow中softmax函数的工作原理,它如何将向量压缩到(0,1)区间并保证元素和为1,常用于神经网络分类。同时探讨了softmax与损失函数的关系,说明了在分类问题中,损失函数如何衡量预测的准确性,错误预测的损失更大,准确预测的损失更小。" 132930720,20036536,Android内存优化与消息分发深度解析,"['Android开发', '内存管理', '性能优化', '消息分发']

Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量A “压缩”到另一个K维实向量 A' 中,使得A' 每一个元素的范围都在(0,1)之间,并且所有元素的和为1。

该函数的形式可以按下面的式子给出:

可能大家一看到公式就有点晕了,别被吓跑,我来简单解释一下。这个公式的意思就是说得到的A'向量中的每个元素的值,是由A中对应元素的指数值除以A中所有元素的指数值的总和。

举个例子:假设你的A =[1,2,3],那么经过softmax函数后就会得到A' = [0.09, 0.24, 0.67],A'的三个元素分别是怎么来的呢?

A'的第1个元素  = exp(1) / (exp(1) + exp(2) + exp(3)) = 0.09

A'的第2个元素  = exp(2) / (exp(1) + exp(2) + exp(3)) = 0.24

A'的第3个元素  = exp(3) / (exp(1) + exp(2) + exp(3)) = 0.67

由于Softmax函数的这个特点,经常会被用在神经网络来解决分类问题中,得到的结果就可以认为是满足各种分类的概率。

 

在采用神经网络在解决问题时,我们还必须用到损失函数,在弄懂了Softmax函数本身之后,让我们再来看看Softmax的损失函数

我们知道,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值