SparseCategoricalCrossentropy()与CategoricalCrossentropy()的区别

本文详细解析了在深度学习中CategoricalCrossentropy与SparseCategoricalCrossentropy两种损失函数的区别。前者适用于目标变量为one-hot编码的情况,而后者则用于数字编码的标签,即稀疏目标值预测场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SparseCategoricalCrossentropy()与CategoricalCrossentropy()的区别:

  • (1)如果labels是one-hot编码,比如目标是 one-hot 编码:
      [[0, 1, 0],
       [1, 0, 0],
       [0, 0, 1]]
    每条每一行就是label的编码,使用CategoricalCrossentropy(),计算预测值与真值的多类交叉熵(输入值为二值矩阵,而不是向量)
  • (2)如果目标是数字编码,比如
    [1,3,4]
    每个数字即是label,使用SparseCategoricalCrossentropy(),Sparse是稀疏的意思,在对稀疏的目标值预测时有用。与多类交叉熵相同,适用于稀疏情况

参考:
【1】keras中文档
【2】Keras损失函数:categorical_crossentropy和sparse_categorical_crossentropy的区别

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值