tf.nn.sparse_softmax_cross_entropy_with_logits(labels,logits)多了一步稀疏编码,所以labels只需要输入不同的数值带表不同的类别即可,例如[1,2,3,3,2,1]tf.nn.softmax_cross_entropy_with_logits(labels,logits)则没有稀疏编码,所以需要输入的labels即为one-hot编码,如[[1,0,0],[0,1,0],[0,0,1],[0,0,1],[0,1,0],[1,0,0]]
搞清楚输入后,具体是进行以下操作:
y = softmax(logits)
entropy(y)
这里softmax和entropy的公式就不写了,网上都有。
最终输出的是一个损失,如果不想加入其他操作,直接扔到train里面就可以了
本文解释了tf.nn.sparse_softmax_cross_entropy_with_logits与tf.nn.softmax_cross_entropy_with_logits的区别,前者适用于标签为整数的情况,后者则需要one-hot编码的标签。文章详细说明了这两种函数的输入要求及内部实现原理。
691

被折叠的 条评论
为什么被折叠?



