原文出处:http://blog.youkuaiyun.com/aidayei/article/details/6675886
对于英文文档,其分词的过程很简单。中文文本的分类难度较大,主要是因为汉语分词问题的困难,即为此需要建立完整的汉语概念体系、汉语语法、语义和语用分析是十分复杂的。
lucene包自带的三种中文分词:
以“我是中国人”这句话作分词举例
1.StandardAnalyzer:我-是-中-国-人
2.CJKAnalyzer:我是-是中-中国-国人
3.SmartChineseAnalyzer:我-是-中国-人
第一种是一元分词,第二种是二元分词,第三种应该比较复杂了,没看源码,我猜应该是根据中文语义来分的,有兴趣的可以去详细看看源码
solr自带的中文分词,solr.CJKTokenizerFactory,solr.ChineseTokenizerFactory和solr.ChineseFilterFactory
solr.CJKTokenizerFactory对应于lucene中的CJKAnalyzer,是二元分词
solr.ChineseTokenizerFactory对应于lucene中的StandardAnalyzer,是一元分词
solr.ChineseFilterFactory被StopFilterFactory取代,看名字应该知道是停用词过滤
下面这两种还没得及看,不知道是不是也和lucene中的SmartChineseAnalyzer对应呢
org.apache.solr.analysis.SmartChineseSentenceTokenizerFactory
org.apache.solr.analysis.SmartChineseWordTokenFilterFactory
本文详细解析了Lucene和Solr在处理中文文本时的分词策略,包括内置的三种中文分词方法:一元分词、二元分词和基于语义的分词,并对比了它们之间的差异。此外,文章还介绍了Solr自带的中文分词工厂和过滤器,如CJKTokenizerFactory、ChineseTokenizerFactory和ChineseFilterFactory,并提供了它们与Lucene分词方法的对应关系。
321

被折叠的 条评论
为什么被折叠?



