分词
在NLP中,需要将文本进行单词或词组的分割,以便于构建特征。例如,“i am a student”,可以分词为“i”,“am”,“a student”。由于英文的特点,每个单词都有空格,所以比较好分。但是像中文,只有句子与句子之间才有明显的分割,单词和词组之间无法直接分割,所以就需要一定的规则库对中文分词处理。
词干化
词干化就是将不同状态的单词进行简化处理,例如listened转化为listen,目的是减少词汇量,进而减少特征。这个是针对英文而言的,中文没有这方面的需要。
词袋
通过单词出现的频率来构建特征,例如
“i am li,i like zhang”,
“i am a student”,
汇总到一起的词汇表为“i,am,li,like,zhang,a,student”
词汇表一共是7个单词,所以根据单词出现的次数分别构建句子的向量为
“i am li,i like zhang” ---> [2, 1, 1, 1, 1, 0, 0]
“i am a student” ---> [1, 1, 0, 0, 0, 1, 1]
本文深入探讨了自然语言处理(NLP)中的关键技术,包括分词、词干化及词袋模型。阐述了这些技术在处理英文和中文文本时的不同应用,并解释了如何构建词袋模型以进行特征提取。
1131

被折叠的 条评论
为什么被折叠?



