
基于信息论特征选择算法
汤宪宇
这个作者很懒,什么都没留下…
展开
-
举例说明信息熵、互信息的计算过程
目录一、 计算公式1、信息熵H(X)2、联合熵H(X,Y)3、互信息I(X,Y)4、条件熵H(X|Y)二、举例说明1、信息熵H(X)2、联合熵H(X,Y)3、互信息I(X,Y)4、条件熵H(X|Y)总结一、 计算公式在shannon提出信息论到现在已经有70多年的历史。信息论中常用的概念有信息熵、联合熵、条件熵、互信息等概念。1、信息熵H(X)定义:一个离散随机变量X的熵H(X)定义为H...原创 2020-04-26 11:23:47 · 42479 阅读 · 5 评论 -
Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selecti2
第三节主要以理论推导为主,主要是为了推导出最大条件似然问题可以近似为最小化条件互信的问题:argmaxθL(θ,D)=argminθI(Xθ~;Y∣Xθ)\arg\max_{\theta}\mathcal{L}(\theta,\mathcal{D})=\arg\min_\theta I(X_{\tilde\theta};Y|X_\theta)argθmaxL(θ,D)=argθmi...原创 2019-11-13 16:16:27 · 771 阅读 · 0 评论 -
条件互信息的理解(Conditional Mutual Information)
在概率论,尤其是信息论中,条件互信息的基本形式是在给定第三个变量值的情况下,两个随机变量互信息的期望值。对于离散随机变量X,Y,Z,其条件互信息为:用图形表示条件互信息为:具体的定义等后续补充。...原创 2019-10-25 16:41:29 · 18276 阅读 · 5 评论 -
Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selecti
目录1、文章信息2、主要思想2.1信息熵:2.2 基于互信息的滤波算法1、文章信息Title: Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selection**Author:**Gavin Brown, Adam Pocock, Ming-Jie Z...原创 2019-10-30 17:58:02 · 1293 阅读 · 0 评论