【论文笔记】Attention总结二:Attention本质思想 + Hard/Soft/Global/Local形式Attention

Attention总结二:

涉及论文:

  1. Show, Attend and Tell: Neural Image Caption Generation with Visual Attentio(用了hard\soft attention attention)
  2. Effective Approaches to Attention-based Neural Machine Translation(提出了global\local attention)

本文参考文章:

Attention - 之二
不得不了解的五种Attention模型方法及其应用
attention模型方法综述
Attention机制论文阅读——global attention和local attention
Global Attention / Local Attention

本文摘要

  1. attention机制本质思想
  2. 总结各attention机制(hard\soft\global\local attention)
  3. attention其他相关

1 Attention机制本质思想

本质思想见:这篇文章, 此文章中也说了self-attention。
简答来说attention就是(query, key ,value)在机器翻译中key-value是一样的。
PS:NMT中应用的Attention机制基本思想见论文总结:Attentin总结一

2 各种attention

来说一下其他的attention:

  1. hard attention
  2. soft attention
  3. gloabal attention
  4. local attention
  5. self-attention:target = source -> Multi-head attention -(放attention总结三)

2.1 hard attention

论文:Show, Attend and Tell: Neural Image Caption Generation with Visual Attention.
hard attention结构
笔记来源:attention模型方法综述

soft attention是保留所有分量进行加权,hard attention是以某种策略选取部分分量。hard attention就是关注部分。
soft attention就是后向传播来训练。

hard attention的特点:
the hard attention model is non-differentiable and requires more complicated techniques such as variance reduction or reinforcement learning to train

具体

模型的encoder利用CNN(VGG net),提取出图像的L个D维的向量ai,i=1,2,…L,每个向量表示图像的一部分信息。
dec

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值