一、交叉熵损失函数
1、离散变量 i i i的概率分布为 P ( i ) P(i) P(i),熵的公式: E n t r o p y = − ∑ i P ( i ) l o g P ( i ) Entropy=-\sum_iP(i)logP(i) Entropy=−i∑P(i)logP(i)
2、连续变量 x x x的概率分布为 P ( x ) P(x) P(x),熵的公式: E n t r o p y = − ∫ P ( x ) l o g P ( x ) d x Entropy=-\int P(x)logP(x)dx Entropy=−∫P(x)logP(x)dx
3、交叉熵:主要度量两个概率分布间的差异性信息: H ( P , Q ) = − ∑ i = 0 N P ( x ) l o g Q ( x ) H(P,Q)=-\sum_{i=0}^NP(x)logQ(x) H(P,Q)=−i=0∑NP(x)logQ(x)
1)二分类
共 N N