一,熵(信息熵)
1.定义
信息熵描述的是对随机变量不确定性的度量,不确定性越大,信息熵值就越大。
2.公式
Lθ(x)=−p(x)log(p(x))L_\theta(x) =- p(x)log(p(x))Lθ(x)=−p(x)log(p(x))
二,交叉熵
2.公式
Lθ(x)=−p(x)log(q(x))L_\theta(x) =-p(x)log(q(x))Lθ(x)=−p(x)log(q(x))
3.机器学习中的交叉熵
Lθ(x)=−1m∑i=1m(yiloghθ(xi)+(1−y)ilog(1−hθ(xi)))L_\theta(x) =- \frac{1}{m}\sum_{i=1}^{m}(y^{i}logh_\theta(x^i)+(1-y)^{i}log(1-h_\theta(x^i)))Lθ(x)=−m1∑i=1m(yiloghθ(xi)+(1−y)ilog(1−hθ(xi)))