『cs231n』注意力模型

本文探讨了RNN在文本标注中的应用及其局限性,并详细介绍了SoftAttention模型的工作原理及优势,包括其如何生成注意力向量,以及为解决关注区域受限问题而引入的空间转换器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 RNN实现文本标注:

 弊端是图像信息只在初始化时有用到

 

Soft Attention模型:

每一层具有三个输入:隐藏状态 + 注意力特征向量 + 词向量

每一层具有两个输出:新的位置分布(指示下一次‘观测’位置) + 词向量概率分布

 

上图介绍了两种计算注意力特征向量的方式,CNN特征和RNN产生位置分布的结合方式,D维指的应该是feature深度

 

 

这里展示了两种注意力向量生成方式的异同,可以看到Soft模式更为发散且更为直观,当然比较厉害的是这是无监督学习出来的结果(神经网络么)

 

其他的Soft模式展示

 

 

但是Sotf模式不是随意关注的,它的关注区域大小也是收到感受野大小影响的(废话... ...)

 

空间转化器:弥补Soft模式关注区受限制的问题

关注位置裁剪可学习化:

裁剪操作是不可微的,但是可以通过参数使得这一过程连续,即建立坐标映射,这样就可以将关注位置到输入图像这一过程可学习化,整合入网络

 

  • Sotf attention
    • 容易实现,且工作的不错
    • 由于关注区域是受限制的,所以引入空间转换器
  • Hard attention(介绍不多)
    • 不容易实现
    • 没有梯度
    • 需要强化学习

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值