
迁移学习
文章平均质量分 94
谁是momo子
拖延症患者
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
文献阅读笔记—Deep contextualized word representations
迁移学习在nlp领域的应用之pretrain language representation,四连载,建议按顺序看,看完对该方向一定会非常清楚的!(一)ELMO:Deep contextualized word representations(二)Universal Language Model Fine-tuning for Text Classification(三)openAI ...原创 2018-10-26 16:41:28 · 4718 阅读 · 2 评论 -
文献阅读笔记—Improving Language Understanding by Generative Pre-Training
迁移学习在nlp领域的应用之pretrain language representation,四连载,建议按顺序看,看完对该方向一定会非常清楚的!(一)ELMO:Deep contextualized word representations(二)Universal Language Model Fine-tuning for Text Classification(三)openAI ...原创 2018-11-06 22:03:01 · 7927 阅读 · 1 评论 -
文献阅读笔记—BERT: Pretraining of Deep Bidirectional Transformers for Language Understanding
迁移学习在nlp领域的应用之pretrain language representation,四连载,建议按顺序看,看完对该方向一定会非常清楚的!(一)ELMO:Deep contextualized word representations(二)Universal Language Model Fine-tuning for Text Classification(三)openAI ...原创 2018-11-07 13:13:52 · 3159 阅读 · 0 评论 -
文献阅读笔记—Universal Language Model Fine-tuning for Text Classification
迁移学习在nlp领域的应用之pretrain language representation,四连载,建议按顺序看,看完对该方向一定会非常清楚的!(一)ELMO:Deep contextualized word representations(二)Universal Language Model Fine-tuning for Text Classification(三)openAI ...原创 2018-11-05 21:42:25 · 4552 阅读 · 2 评论 -
知识图谱_关系抽取_文献笔记(二)
本文介绍一篇18年EMNLP的文章Neural Relation Extraction via Inner-Sentence Noise Reduction and Transfer Learning。对知识图谱关系抽取前世了解一下,再来看今天的文章哦。还需了解一下用神经网络做依存句法分析。一、问题描述这篇文章是做知识图谱中的关系抽取的,创新点有三个:1. 通过Sub-Tree Par...原创 2019-01-02 21:16:18 · 3354 阅读 · 2 评论