(28)语义分割--cross-entropy loss和OhemCELoss

本文详细介绍了熵的概念及其在信息论中的应用,接着探讨了Sigmoid函数和二分类交叉熵,包括它们的定义、计算过程和PyTorch中的实现。随后讲解了softmax函数、多分类交叉熵及其在多分类问题中的应用。重点讨论了语义分割中的OhemCELoss损失函数,包括其实现细节和与二分类、多分类交叉熵的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、主要参考

(1)大佬写的很好

https://www.jianshu.com/p/24376b18e5c7

(2)二分类和多分类大佬写的很好

交叉熵损失函数_沙子是沙子的博客-优快云博客_交叉熵损失函数

二分类交叉熵,多分类交叉熵,focal loss_jzdl的博客-优快云博客_二分类交叉熵

(3)二分类的定义和实现

PyTorch学习笔记——二分类交叉熵损失函数 - 知乎

(4)softmax和sigmod的关系见下面,写得很好

Softmax和Sigmoid函数的区别_ciki_tang的博客-优快云博客_softmax和sigmoid

(5)其它概念参考

Sigmoid函数_百度百科

2、什么是熵

参考某度

https://baike.baidu.com/item/%E7%86%B5/19190273?fr=aladdin

信息熵_百度百科

(1)熵 [shāng],(英语:entropy)。泛指某些物质系统状态的一种量度,某些物质系统状态可能出现的程度。熵的概念是由德国物理学家克劳修斯于1865年提出。1923年,德国科学家普朗克(Planck)来中国讲学用到"entropy"这个词,胡刚复教授翻译时灵机一动,把“商”字加火旁来意译“entropy”这个字,创造了“熵”字(拼音:shāng)。

(2)1948年,香农将统计物理中熵的概念,引申到信道通信的过程中,从而开创了”信息论“这门学科。香农定义的“熵”又被称为“香农熵”或“信息熵”,即

    其中 i 标记概率空间中所有可能的样本,pi 表示该样本的出现几率,K是和单位选取相关的任意常数。

(3)上述公式中,如果i有32个取值范围,假设其中,p1,p2 , ...,p32 分别是这 32 个球队夺冠的概率。

               S = -(p1*log(2,p1) + p2 * log(2,p2) + ... +p32 *log(2,p32))

注意:当所有样本等几率出现的情况下,熵达到最大值。

3、Sigmoid函数和二分类交叉熵

3.1 sigmoid函数 

(1)sigmoid的函数如下图所示

&nb

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值