Embedding
ttliu_kiwi
进一寸有一寸的欢喜~
读经典的书,走更多的路。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文笔记 | Modeling Intra-Relation in Math Word Problems with Different Functional Multi-Head Attentions
简介Jierui Li, Wang Lei 和 Dongxiang Zhang团队发表在ACL19上的工作。主要使用不同功能的Multi-Head Attention来获取不同类型对象的关系。受到multi-head attention工作的启发,作者设计了四种不同的attention机制:Global attention:以整个句子的表示作为query, key和value,以获取全局信...原创 2020-02-25 21:24:10 · 1296 阅读 · 0 评论 -
Word Embedding论文阅读笔记
Word Embedding论文阅读笔记1. Google 2017—Attention is All You Need主要内容提出Transformer架构,用于机器翻译任务中。可替代RNN和Encoder-Decoder结构。仅使用attention机制(Self Attention + Multi-Head Attention),没有任何递归和卷积。不仅在机器翻译任务中效果好,而且可...原创 2019-04-18 21:17:11 · 604 阅读 · 0 评论
分享