
NLPCamp
ziuno
NLP爱好者,专注于解决小众bug~
展开
-
NLPCamp-SpellCorrection
SpellCorrection# 词典库vocab = set([line.rstrip() for line in open('vocab.txt')])# 需要生成所有候选集合def generate_candidates(word): """ word: 给定的输入(错误的输入) 返回所有(valid)候选集合 """ # 生成编辑距离为...原创 2020-04-21 11:21:46 · 225 阅读 · 0 评论 -
NLPCamp-Project1
Project1Part 1: 搭建一个分词工具Part 1.1 基于枚举方法来搭建中文分词工具此项目需要的数据:综合类中文词库.xlsx: 包含了中文词,当做词典来用以变量的方式提供了部分unigram概率 word_prob举个例子: 给定词典=[我们 学习 人工 智能 人工智能 未来 是], 另外我们给定unigram概率:p(我们)=0.25, p(学习)=0.15, ...原创 2020-04-14 15:13:31 · 722 阅读 · 0 评论