自然语言处理(NLP)
文章平均质量分 76
dllian
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
KL距离——相对熵(Relative Entropy)
KL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。我们用D(P||Q)表示KL距离,计算公式如下:转载 2012-04-24 10:44:39 · 1950 阅读 · 0 评论 -
Latent Dirichlet Allocation 原文导读
有两种方法设计分类器: 1. discriminative model,就是由样本直接设计判别函数,例如SVM; 2. generative model,就是先从样本恢复概率模型——例如我们熟悉的参数方法:混合高斯模型GMM;非参数方法Parzen窗。然后再充分挖掘模型,用以分类。例如Bayes最大后验概率准则;或者将模型中的参数当作提取的特征(参数一般都比较少,所以这转载 2012-04-24 18:06:57 · 822 阅读 · 0 评论 -
topic model 发展方向
combine semantic variables (NLP) with topological variables (SNA) to predict som other semantic variables. LDA and its extensions can be used to model the evolution of topics over time, to model t翻译 2012-04-18 17:35:08 · 2134 阅读 · 0 评论 -
(EM算法)The EM Algorithm
1. Jensen不等式 回顾优化理论中的一些概念。设f是定义域为实数的函数,如果对于所有的实数x,,那么f是凸函数。当x是向量时,如果其hessian矩阵H是半正定的(),那么f是凸函数。如果或者,那么称f是严格凸函数。 Jensen不等式表述如下: 如果f是凸函数,X是随机变量,那么 特别地,如果f是严转载 2012-04-25 16:25:38 · 677 阅读 · 0 评论
分享