笔记-2002-Combining Classifiers for Chinese Word Segmentation

Combining Classifiers for Chinese Word Segmentation

作者:Nianwen Xue,Susan P. Converse
单位:Institute for Research in Cognitive Science ;University of Pennsylvania 
出处:Proceeding SIGHAN '02 Proceedings of the first SIGHAN workshop on Chinese language processing - Volume 18 Association for Computational Linguistics Stroudsburg, PA, USA ©2002

主要内容:用最大熵解决中文分词问题,抛砖引玉

引言,Introduction
模型,
1为什么用tag解决,怎么tag
2 ME模型
3 ME有标记偏置问题,Transformation-Based Learning去解决
实验
3个实验的介绍
评价及结果分析
讨论
使用最大熵工具注意几点,
1 回车换行只有10 没有13
2 测试语料不能有空行,可以对结果再行处理
3 测试语料如果第一行是测试答案,则输出一个“标记”准确率,并不是P、R、F1
4 迭代次数可以显示对训练语料的拟合程度,Xue的这篇论文拟合程度至少是0.9755


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值