
疑问
naozibugouyong
这个作者很懒,什么都没留下…
展开
-
单词分析
#include<stdio.h> #include "string.h" int main() { char s[1000]; int a[128] = {0};//**定义简单的哈希表并确定表长为128(因为ASCII码只占一个字节8位)并赋初值为0** scanf("%s", s); int i; int max = 0; char t = 0; for(i = 0; i < strlen(s); i++) { a[s[i]]++;//建立哈希表 if原创 2021-03-02 16:55:41 · 164 阅读 · 0 评论 -
Python--自然语言处理
1、下列不属于常用中文分词方法的是( c ) A. 基于字典、词库匹配的分词方法 B. 基于词频统计的分词方法 C. 基于知识理解的分词方法 D. 基于单字语义的分词方法 2、以下不属于jieba常用方法的是(D) A. jieba.cut B. jieba.cut_for_search C. jieba.cut_all D. jieba.lcut ...原创 2020-02-03 14:12:42 · 561 阅读 · 3 评论