
经典模型论文
文章平均质量分 95
该专栏主要介绍现在在NLP领域、CV领域以及其他领域十分经典的模型
FutureForMe@
哈尔滨某工业大学研究生一枚,目前的研究方向主要为偏医疗方向的NLP,此外还对机器学习、深度学习等方向十分感兴趣,希望可以和志同道合的朋友一块成长~
展开
-
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 论文解读
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding1. BERT模型1.1 Pre-training BERT1.2 Fine-tuning BERT1.3 Comparison of BERT, ELMo ,OpenAI GPT1.4 Experiments【写在前面】现有的预训练语言表示的方法主要有两种,一种是feature-based,另一种是fine-tuning。BERT则是由谷歌提原创 2021-03-24 16:56:18 · 660 阅读 · 0 评论 -
Attention Is All You Need----Transformer 论文解读
Attention Is All You Need论文地址:https://arxiv.org/pdf/1706.03762.pdf论文源码:https://github.com/pytorch/fairseq [Pytorch版本]https://github.com/tensorflow/models/tree/master/official/nlp/transformer[Tensorflow版本]Abstract:现在大多数效果比较好的序列转导模型都是基于CNN或者RNN的 Encoder原创 2021-03-22 20:45:26 · 1029 阅读 · 2 评论