tf.keras.losses.SparseCategoricalCrossentropy(
from_logits=False, reduction=losses_utils.ReductionV2.AUTO,
name='sparse_categorical_crossentropy'
)
参数:from_logits:True就是需要经过softmax进行概率化,默认False及y_pred是经过softmax处理的
reduction:False:返回一个list, True:返回一个平均值
计算方法:本质就是计算交叉熵,交叉熵本质就是一个样本计算一个“-log(正确概率)”
cce = tf.keras.losses.SparseCategoricalCrossentropy()
loss = cce(
[0, 1, 2],
[[.9, .05, .05], [.5, .89, .6], [

最低0.47元/天 解锁文章
1478

被折叠的 条评论
为什么被折叠?



