
Transformer学习
文章平均质量分 95
sunshinecxm_BJTU
这个作者很懒,什么都没留下…
展开
-
3. 编写一个Transformer模型:BERT(3.1 如何实现一个BERT)
参考本文包含大量源码和讲解,通过段落和横线分割了各个模块,同时网站配备了侧边栏,帮助大家在各个小节中快速跳转,希望大家阅读完能对BERT有深刻的了解。同时建议通过pycharm、vscode等工具对bert源码进行单步调试,调试到对应的模块再对比看本章节的讲解。本篇章将基于HHuggingFace/Transformers, 48.9k Star进行学习。本章节的全部代码在huggingface bert,注意由于版本更新较快,可能存在差别,请以4.4.2版本为准HuggingFace 是一家总部位于纽转载 2021-08-22 23:43:32 · 1337 阅读 · 0 评论 -
2. Transformer相关的原理(2.4. 图解GPT)
参考除了BERT以外,另一个预训练模型GPT也给NLP领域带来了不少轰动,本节也对GPT做一个详细的讲解,感兴趣的读者可以选择性阅读。图: 结构总览前言这篇文章翻译自http://jalammar.github.io/illustrated-gpt2/。多图详细解释当今最为强大的人工智能 GPT-2(截至 2019 年 8 月 12 日)。今年,我们看到了机器学习在许多场景的广泛应用。OpenAI GPT-2(https://openai.com/blog/better-language-mod转载 2021-08-20 21:22:45 · 1896 阅读 · 1 评论 -
2. Transformer相关的原理(2.3. 图解BERT)
参考在学习完Transformer之后,我们来学习一下将Transformer模型结构发扬光大的一个经典模型:BERT。前言BERT在2018年出现。2018 年是机器学习模型处理文本(或者更准确地说,自然语言处理或 NLP)的转折点。我们对这些方面的理解正在迅速发展:如何最好地表示单词和句子,从而最好地捕捉基本语义和关系?此外,NLP 社区已经发布了非常强大的组件,你可以免费下载,并在自己的模型和 pipeline 中使用(今年可以说是 NLP 的 ImageNet 时刻,这句话指的是多年前类似的转载 2021-08-20 17:00:38 · 861 阅读 · 0 评论 -
2. Transformer相关的原理(2.2. 图解transformer)
参考图解transformer在学习完Attention之后,我们将在本小节对Transformer所涉及的细节进行深入探讨,相比于篇章1中的初识Transformer更细致和形象。前言本文翻译自illustrated-transformer,是笔者看过Transformer 讲解得最好的文章。这篇文章从输入开始,一步一步演示了数据在 Transformer 中的流动过程。由于看过一些中文翻译的文章,感觉不够好,所以我自己翻译了一个版本,在一些难以直译的地方,笔者加入了一些原文没有的文字说明,来更转载 2021-08-18 17:15:11 · 1194 阅读 · 0 评论 -
2. Transformer相关的原理(2.1.图解attention)
参考图解Attention篇章1中我们对Transformers在NLP中的兴起做了概述,本篇章将从attention开始,逐步对Transformer结构所涉及的知识进行深入讲解,希望能给读者以形象生动的描述。本小节主要对attention进行解析。seq2seq模型首先谈一下NLP常用于生成任务的seq2seq结构。seq2seq模型结构在很多任务上都取得了成功,如:机器翻译、文本摘要、图像描述生成。谷歌翻译在 2016 年年末开始使用这种模型。有2篇开创性的论文:Sutskever等2014年转载 2021-08-18 11:26:45 · 340 阅读 · 0 评论 -
1. Transformer初探
datawhale自然语言处理(Natural Language Processing, NLP)自然语言处理(Natural Language Processing, NLP)是一种重要的人工智能(Artificial Intelligence, AI)技术。我们随处可以见到NLP技术的应用,比如网络搜索,广告,电子邮件,智能客服,机器翻译,智能新闻播报等等。最近几年,基于深度学习(Deep Learning, DL)的NLP技术在各项任务中取得了很好的效果,这些基于深度学习模型的NLP任务解决方案通转载 2021-08-15 20:39:50 · 236 阅读 · 0 评论