tf.losses.softmax_cross_entropy(): softmax cross-entropy loss (用tf.nn.softmax_cross_entropy_with_logits 实现)
tf.losses.sparse_softmax_cross_entropy(): 稀疏softmax Cross-entropy loss (用 tf.nn.sparse_softmax_cross_entropy_with_logits 实现)
注意1,使用这两种Losses函数,网络的最后都不需要加上softmax函数。
注意2,在sparse_softmax_cross_entropy(),输入的label为 tf.argmax(Y, axis=1)
本文详细介绍了TensorFlow中两种常用的Softmax损失函数:softmax_cross_entropy和sparse_softmax_cross_entropy。前者适用于多分类任务,后者则针对标签为整数的情况。文章强调了使用这两种损失函数时,网络的最后一层无需再添加Softmax激活函数,并且对于sparse_softmax_cross_entropy函数,输入的标签需要通过tf.argmax函数转换。
1万+

被折叠的 条评论
为什么被折叠?



