熵,交叉熵,互信息

本文深入探讨了信息论中的核心概念——信息熵与交叉熵。详细解释了信息熵作为衡量随机变量不确定性的重要指标,以及交叉熵在机器学习中评估模型预测与实际标签差异的应用。通过数学公式和实例,帮助读者理解这两个概念的本质及其在实际场景中的运用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一,熵(信息熵)
1.定义

信息熵描述的是对随机变量不确定性的度量,不确定性越大,信息熵值就越大。

2.公式

Lθ(x)=−p(x)log(p(x))L_\theta(x) =- p(x)log(p(x))Lθ(x)=p(x)log(p(x))

二,交叉熵
2.公式

Lθ(x)=−p(x)log(q(x))L_\theta(x) =-p(x)log(q(x))Lθ(x)=p(x)log(q(x))

3.机器学习中的交叉熵

Lθ(x)=−1m∑i=1m(yiloghθ(xi)+(1−y)ilog(1−hθ(xi)))L_\theta(x) =- \frac{1}{m}\sum_{i=1}^{m}(y^{i}logh_\theta(x^i)+(1-y)^{i}log(1-h_\theta(x^i)))Lθ(x)=m1i=1m(yiloghθ(xi)+(1y)ilog(1hθ(xi)))

三、互信息
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值