
crf
j-o-l-i-n
半路出家机房扫地僧,沉迷火炉炼丹和修仙。精通徒手写bug,曾出版《如何一秒爆显存》。
展开
-
encoder.cpp(340) [feature_index.open(templfile, trainfile)]feature_index.cpp(174) [max_size == size]
http://www.linuxdiyf.com/linux/8637.html转载 2015-03-07 03:20:33 · 4661 阅读 · 1 评论 -
用博文中的方法-r -d "\t"试了下conlleval测试crf++的输出
看到这篇 http://argcv.com/articles/2104.c 觉得不错后来到官网上看了下http://www.cnts.ua.ac.be/conll2000/chunking/output.html最后用博文中的方法-r -d "\t"试了下crf++的输出,跟自己程序算的结果真是一模一样呢=。=好开心。。。。。。原创 2015-05-12 15:58:56 · 2669 阅读 · 1 评论 -
CRF++总结 (1)(2)【转】
转自 http://blog.sina.com.cn/s/blog_5980285201018m6r.html花了一两天时间捣鼓CRF++的代码(LBFGS部分代码接下来会再总结一下),暂时总结一下(理论部分就不再赘述了): 先贴一个类图吧:CRF++总结(1)" alt="2012-9-12 CRF++总结(1)" src="http://s7.sinaimg.cn/mi转载 2015-05-14 17:10:51 · 691 阅读 · 0 评论 -
CRF++中的unigram和bigram features指定是uni/bigrams的输出标签
Cite: (http://www.cnblogs.com/pangxiaodong/archive/2011/11/21/2256264.html) unigram/bigram很容易混淆,因为通过unigram-features也可以写出类似%x[-1,0]%x[0,0]这样的单词级别的bigram(二元特征)。而这里的unigram和bigram features指定是un原创 2015-05-15 15:53:05 · 2647 阅读 · 1 评论 -
crfpp python
本文运用字标注法进行中文分词,使用4-tag对语料进行字标注,观察分词效果。模型方面选用开源的条件随机场工具包“CRF++: Yet Another CRF toolkit”进行分词。 本文使用的中文语料资源是SIGHAN提供的backoff 2005语料,目前封闭测试最好的结果是4-tag+CFR标注分词,在北大语料库上可以在准确率,召回率以及F值上达到92%以上的效果,在转载 2016-01-07 19:46:06 · 6138 阅读 · 1 评论