
9 NLP
文章平均质量分 70
PaperAgent
这个作者很懒,什么都没留下…
展开
-
BERT轻量化探索—模型裁剪(BERT Pruning)—层数裁剪
继BERT维度剪枝之后,尝试了BERT层数暴力裁剪,直接剪掉若干层。试验结果: 结论:训练提升40%左右、效果下降1.2%,推断速度提升50%。代码参考 : 最简单的模型轻量化方法:20行代码为BERT剪枝 https://cloud.tencent.com/developer/article/1542897, 但是进行了一些调整。1)首先,将谷歌pretr...原创 2019-12-19 10:55:44 · 4313 阅读 · 4 评论 -
BERT轻量化探索—模型剪枝(BERT Pruning)—Rasa维度剪枝
由于BERT参数众多,模型庞大,训练与推理速度较慢,在一些实时性要求较高应用场景无法满足需求,最近开始探索BERT轻量化部署BERT轻量化的方式:低精度量化。在模型训练和推理中使用低精度(FP16甚至INT8、二值网络)表示取代原有精度(FP32)表示。模型裁剪和剪枝。减少模型层数和参数规模。 模型蒸馏。通过知识蒸馏方法[22]基于原始BERT模型蒸馏出符合上线要求的小模型...原创 2019-12-19 10:14:04 · 3283 阅读 · 3 评论 -
【转】概念主题模型简记
来源:https://blog.youkuaiyun.com/lu597203933/article/details/45933761概念主题模型(PTM, probabilitytopical model)在自然语言处理(NLP,natural language processing)中有着重要的应用。主要包括以下几个模型:LSA(latentsemantic analysis)、 PLSA(proba...转载 2018-08-24 16:28:18 · 573 阅读 · 0 评论 -
关键词(一)jieba词性标注与分词结果不一致
1、 先描述下现象>>> aa='北京时间月日晚刘强东的刑辩律师在接受澎湃新闻记者电话采访时表示刘强东涉嫌强奸一案中的指控与证据是有出入的一旦调查结束证据将会披露给公众证明他是无罪的'=======过滤词性,能识别“刘强东”>>> ' '.join([k for k,w in analyse.extract_tags(aa,topK=2000,...原创 2018-09-27 09:18:01 · 2975 阅读 · 0 评论 -
实体识别(一)几种NER深度学习模型效果对比IDCNN+BERT+BiLISTM+CRF
纯实现上对比几种NER深度学习模型效果(有不严谨的地方:数据集、模型规模等),代码来源于Github上大神的贡献。实现上有三种模型对比 模型 IDCNN+CRF BiLSTM+CRF(1) BiLSTM+CRF(2) BERT+BiLSTM+CRF 参考文献 文献[3] 文献[3] 文献[4] 文献[2] 数据集 100w字符...原创 2019-01-31 16:34:52 · 15051 阅读 · 20 评论