
NLP
96nie
这个作者很懒,什么都没留下…
展开
-
关于命名实体识别的方法对比总结与原理初探
主要作用 优点 缺点 BERT BILSTM BIGRU BERT中demo:如图两个句子的分类任务(MNLI\QQP\QNLI\STS-B\MRPC\RTE\SWAG),单句的分类任务(SST-2\CoLA);问答任务(SQuAD v1.1);单句序列标注任务(CoNLL-2003 NER)一、BERT 原理初探原文下载地址:https://arxiv.org...原创 2020-11-07 15:39:03 · 1775 阅读 · 0 评论 -
NLP中花里胡哨的名词
词嵌入与词向量:词向量还挺好理解的,就是将一个词用一组数字完成的向量来表示,至于咋表示,那方法就很多了,就比如独热、tfidf之类的。那他又为啥会跟词嵌入扯上关系呢?害,先来解释啥叫嵌入。经过一番的搜索,理解成嵌入通常是指将一个高维的向量映射到低维向量中去。因为这么着能够减少计算过程中的空间消耗,提高效率,所以呀,人们就经常这么干。那么这个词嵌入是啥呢,就是说你从高维词向量转换为低维词向量的这个过程,就叫做词嵌入。至于咋转换的,以后再说吧。(我琢磨着,嵌入这个词放到别的地方应该也可以这么理解。比如啥知识原创 2020-10-28 17:18:53 · 208 阅读 · 0 评论 -
LDA主题模型
近期做了一个关于主题分析的重新学习,感觉只看不实操真的就和白学了一样。也趁着这股劲把关于LDA主题模型的东西总结一下,这些是目前我能够考虑到的所有事情,以后看到再做补充(新手小白请指正我的错误,十分感谢!!)。总结学习使我进步!!一、整体脉络二、原理解析LDA也称为隐狄利克雷分布,LDA的目的就是要识别主题,即把文档—词汇矩阵变成文档—主题矩阵(分布)和主题—词汇矩阵(分布)。 地址: https://www.cnblogs.com/pinar...原创 2020-10-14 14:01:27 · 3667 阅读 · 2 评论