CRF

本文探讨了硬输出与软输出的概念,详细解释了概率判别模型与概率生成模型的区别,包括SVM、PLA、LDA等经典算法。同时,深入分析了MEMM与CRF在序列标注任务中的应用及局限性,对比了HMM与MEMM的差异,并提出了CRF为解决标注偏差问题而将有向图转化为无向图的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
硬输出:有清晰的决策边界,取值要么是0,要么是1。
例如:svm是从几何角度来判别;PLA(感知机);LDA(线性判别分析)
软输出:引入概率,类似于P(y=1|x)>P(y=0|x)就视为取值为1。
概率判别模型:对P(y|x)这个条件概率进行建模。
概率生成模型:对P(x,y)这个联合概率进行建模。
MEMM是最大生成模型(Maximum Entropy Model)和HMM的综合,但实际上也是判别模型,是对P(y|x)建模。与HMM的区别:观测值作为输入,而不是输出;HMM有观测独立性假设,而MEMM和之前的观测值有联系;有标注偏差问题。
CRF要解决MEMM的标注偏差问题,把MEMM从有向图变成无向图,是全局归一化。
在这里插入图片描述
在这里插入图片描述
什么叫一阶线性无关:给定3的条件下,4和2是无关的。
齐次一阶马尔可夫:当前隐状态只与前面紧邻的一个状态有关,而与前面不紧邻的无关。
观测独立性:当前观测值只与当前的隐状态有关,而与之前的观测值无关。给定yt的条件下,xt和xt-1是无关的。
在这里插入图片描述
但是以上两个假设和实际情况是违背的,只是为了计算上的简便,是一种折中的选择。为了打破观测独立性假设,于是提出MEMM。给定yt的条件下,xt和xt-1不是独立的。
在这里插入图片描述
在标注问题中,用判别模型比生成模型好,因为我们只需要求得条件概率,而不需要求联合概率就能达到标注的目的。
在这里插入图片描述
MEMM缺点:Label Bias Problem,是由于mass score的归一化造成的问题,标注时考虑观测值非常少。
在这里插入图片描述
这里举的例子就是说我1时刻走到结点1,2时刻只能走到结点2,这样的话就根本没有考虑输入值i,模型就仅仅根据之前学到的内容,而忽略当前的内容来标注。比如:小明爱中国,直接不看“中国”这两个字就对“中国”进行了标注。

如何解决归一化带来的问题:把有向的MEMM变为无向的链---->线性链随机场
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值