论文阅读——Attention is All You Need

Attention is All You Need

Abstract

主流的序列转换模型基本上都是基于RNN或CNN的编码器-解码器配置,其中性能最优的模型还通过注意力机制连接编码器-解码器,所以本文提出了一种完全基于注意力机制的模型——Transformer,作者用一系列结果表示其模型更优秀,且可以推广到其他任务。

Introduction

在序列转换问题中,RNN尤其是LSTM和Gated NN,已被确立为最先进的方法。

RNN通常根据输入输出的序列位置进行计算,通常为隐藏状态 h t h_t ht由上一个隐藏状态 h t − 1 h_{t-1} ht1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值