15/10/16正式开始一名NLPer的攻城狮升级路,路漫漫,加把劲,变得更优秀,为了自由。要学的东西实在太多,一点一点来。开个blog留个爪印mark一下,很苦很孤独,但我相信你。
主要学习材料目前是《统计自然语言处理》(简称LB)、Michael Collins在Coursera的公开课以及一系列ACL的Best Paper用来长长见识。
最近在看LB的第二章预备知识的部分,主要讲的是概率论和信息论。概率论是基础知识,信息论以前接触的表少。
概率论部分个人认为LB侧重点是联合概率和条件概率,因为在信息论中各种熵的部分用到了很多。
概率论
联合概率P(A,B)就是 P(A∩B) , P(AB) 。只是联合概率强调以离散型随机变量取值作为事件A、B
首先是条件概率,定义为给定B时A(也即已知B发生的情况下A发生)的概率
有没有一点马尔科夫链的感觉?
顺道讲了下贝叶斯法则和决策的概念, 法则用来计算条件概率,决策处理模式分类。
由全概率公式
决策就是:
如果
随后就是先介绍随机变量,然后引入基于随机变量的条件和联合概率分布。
信息论
熵是信息论的基本概念,定义以概率为基础: