前言
语义分割任务可以看作像素级的分类任务,在设计基于语义分割的深度学习架构时,尤其是在伪装目标分割的特殊场景下,损失/目标函数的选择非常关键,会直接影响到算法的学习过程,进而影响到模型的收敛速度、分割准确度。
目前,语义分割种常用的损失函数包括cross entropy, generalized dice coefficient, focal loss 等。
1. cross entropy交叉熵
逐像素的交叉熵是语义分割中最常用的一种损失函数,一般用来量化两个概率分布之间的差异。
(1)对于二分类的情况,其公式如下:
L = 1 N ∑ i − [ y i ⋅ l o g ( p i ) + ( 1 − y i ) ⋅ l o g ( 1 − p i ) ] L=\frac{1}{N} \sum_i -[y_i \cdot log(p_i)+(1-y_i) \cdot log(1-p_i)] L=N1i∑−[yi⋅log(pi)+(1−yi)⋅log(1−pi)]
其中:
- y i y_i yi表示样本i的label,正类为1,负类为-
- p I p_I pI表示样本i预测为正类的概率
(2)对于多分类的情况
L = − 1 N ∑ i ∑ c = 1 M y i c l o g ( p i c ) L=- \frac{1}{N} \sum_i \sum_{c=1}^M y_{ic}log(p_{ic}) L=−N1

最低0.47元/天 解锁文章
178

被折叠的 条评论
为什么被折叠?



