tensorflow学习笔记2——Session和交叉熵损失函数sparse_softmax_cross_entropy

1、tf.Session函数
运行 session.run() 可以获得你要得知的运算结果, 或者是你所要运算的部分.
在这里插入图片描述
在这里插入图片描述
2、tf.losses.sparse_softmax_cross_entropy函数
这个函数做的事情:
预测值y_->softmax,取概率最大
实际值y->onehot
计算loss = ylogy_

tf.losses.sparse_softmax_cross_entropy(
    labels,
    logits,
    weights=1.0,
    scope=None,
    loss_collection=tf.GraphKeys.LOSSES,
    reduction=Reduction.SUM_BY_NONZERO_WEIGHTS
)

参数:
labels:形状为[d_0, d_1, …, d_{r-1}]的Tensor(其中,r是labels和结果的秩),并且有dtype int32或int64.labels中的每个条目必须是[0, num_classes)中的索引.当此操作在CPU上运行时,其他值将引发异常,并返回NaNGPU上相应的loss和梯度行.
logits:形状为[d_0, d_1, …, d_{r-1}, num_classes],并且是dtype float32或float64的未缩放的日志概率.

给个例子:
loss = tf.losses.sparse_softmax_cross_entropy(labels=y, logits=y_)
这里的y的shape是[None],y_的shape是[None,10]

以下内容引用自:https://www.cnblogs.com/djw12333/p/11382419.html

一般常用的损失函数是均方差函数和交叉熵函数
运算公式
  1 均方差函数
  均方差函数主要用于评估回归模型的使用效果,其概念相对简单,就是真实值与预测值差值的平方的均值,具体运算公式可以表达如下:
  在这里插入图片描述
其中f(xi)是预测值,yi是真实值。
loss = tf.losses.mean_squared_error(logits,labels)
2 交叉熵函数
  出自信息论中的一个概念,原来的含义是用来估算平均编码长度的。在机器学习领域中,其常常作为分类问题的损失函数。
  在这里插入图片描述
  其中f(xi)是预测值,yi是真实值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值