【NLP】中文平均信息熵

本文探讨了自然语言处理中的中文平均信息熵,介绍了信息熵的定义及其在多随机变量系统中的应用。文章详细讲解了一元模型和N元模型的信息熵计算,包括一元模型的简单公式和N元模型的马尔可夫假设。同时,阐述了程序实现的步骤,如文本库处理、数据读取、分词和信息熵计算,并提供了运行环境和源码链接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

自然语言处理之中文平均信息熵

课程大作业 欢迎交流

信息熵

1.信息熵定义

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mpqE0SXy-1621346255418)(自然语言处理之中文平均信息熵.assets/shannon.png)]

1948年,香农提出了信息熵的概念,解决了对信息的量化度量问题。如今熵 (Entropy)信息熵,已经是机器学习中绕不开的一个概念。信息熵常被用来作为一个系统的信息含量的量化指标,从而可以进一步用来作为系统方程优化的目标或者参数选择的判据。

信息熵的公式:
H(X)=−∑x∈Xp(x)log⁡p(x) H\left( X \right) = - \sum\limits_{x \in X } {p\left( x \right)\log p\left( x \right)} H(X)=xXp(x)logp(x)
且规定:
0log⁡(0)=0 0\log \left( 0 \right) = 0 0log(0)=0
信息论之父克劳德·香农给出了信息熵的三个性质:

  1. 单调性,发生概率越高的事件,其携带的信息量越低;
  2. 非负性,信息熵可以看作为一种广度量,非负性是一种合理的必然;
  3. 累加性,即多随机事件同时发生存在的总不确定性的量度是可以表示为各事件不确定性的量度的和,这也是广度量的一种体现。

2.多随机变量系统中的信息熵

再自然语言处理中,文本的信息熵会涉及到多随机变量的情况,存在互信息联合熵条件熵等概念,以两随机变量系统为例,条件熵可以表示为:
H(Y∣X)=−∑x∈Xp(x)∑y∈Yp(y∣x)log⁡p(y∣x)=−∑x∈X∑y∈Yp(x,y)log⁡p(x,y)p(x) \begin{array}{c} H\left( {Y|X} \right) = - \sum\limits_{x \in X} {p\left( x \right)\sum\limits_{y \in Y} {p\left( {y|x} \right)\log p\left( {y|x} \right)} } \\ = - \sum\limits_{x \in X} {\sum\limits_{y \in Y} {p\left( {x,y} \right)\log \frac{ {p\left( {x,y} \right)}}{ {p\left( x \right)}}} } \end{array} H(YX)=xXp(x)yYp(yx)logp(yx)=

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值