论文笔记 : Review Networks for Caption Generation

本文介绍了一种名为'ReviewNetworks'的新框架,它通过在编码器的隐藏状态中加入注意力机制的审查步骤来提升图像描述生成和序列到序列任务的表现。此框架包含两个变种:适用于图像的输入审查和适用于序列的输出审查。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Review Networks for Caption Generation

ZhilinYang, YeYuan, YuexinWu, RuslanSalakhutdinov, WilliamW.Cohen School of Computer Science Carnegie Mellon University {zhiliny,yey1,yuexinw,rsalakhu,wcohen}@cs.cmu.edu


arXiv:1605.07912v4  [cs.LG]  27 Oct 2016




摘要:


本人提出了一种新的编码解码框架--'review network',   它是通用的,可以用于改进任何已有的编码解码模型

本文涉及两种模型, CNN encoder + RNN decoder  和 RNN encoder + RNN decoder

'review network'在编码器的隐藏状态中使用了若干带有注意力的review步骤,在每一次review后输出 'thought verctor', 该‘review network’被用于解码器中的注意力机制中的输入。

传统的编码解码框架可以视为reviwe  network的特例。


两个变种:

AttentiveInput Reviewer: 主要针对图像

AttentiveOutputReviewer: 主要针对序列

注意力机制 是解码器在生成过程中 附加以编码器的隐藏状态为条件,而不仅仅是以单个context(最后一个encoder的)信息为条件



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值