Show and Tell: A Neural Image Caption Generator

本文介绍了一种基于神经网络的图像描述生成技术,该技术能够自动为图像生成描述性文字。通过使用预训练的CNN提取图像特征,并利用LSTM进行解码,实现了从图像到描述的端到端学习。实验表明,该方法在主观评分、BLEU和困惑度等指标上表现出色。
部署运行你感兴趣的模型镜像

Show and Tell: A Neural Image Caption Generator

原文地址

时间:2015年

Target

Automatically describe the content of an image

Difficulty

image captioning 不仅要得到图片包含的物体,而且要给出它们之间的关系

Inspiration

  • machine translation with Recurrent Neural Networks(RNNs), an “encoder” RNN reads the source sentence and transforms it into a rich fixed-length vector representation, which in turn in used as the initial hidden state of a “decoder” RNN that generates the target sentence

Contribution

  • an end-to-end system for image caption

Idea

在这里插入图片描述

  • 将机器翻译中的encoder换成 pre-trained 的 CNN来提取图片信息,再用LSTM作为decoder
  • 使用了word embedding
  • 损失函数对encoder、decoder和word embedding同时做更新
  • Inference 的时候使用 Beam Search

Model

在这里插入图片描述
损失函数
在这里插入图片描述
在这里插入图片描述
实际上就是分类的负对数损失
在这里插入图片描述

Evaluation Metrics

  • subjective score
  • BLEU
  • perplexity

训练细节

  • 使用ImageNet预训练模型避免过拟合
  • 使用在大型文集上初始化的词向量避免过拟合的效果不明显,所以不这样做
  • dropout、ensembling
  • SGD with fixed lr and no momentum
  • CNN参数不变
  • embeding维度512,LSTM memory也是
  • 描述标签预处理,保留出现次数超过五次的词

Terminology

  • NIC: Neural Image Caption
  • BLEU
  • perplexity

问题

您可能感兴趣的与本文相关的镜像

Wan2.2-T2V-A5B

Wan2.2-T2V-A5B

文生视频
Wan2.2

Wan2.2是由通义万相开源高效文本到视频生成模型,是有​50亿参数的轻量级视频生成模型,专为快速内容创作优化。支持480P视频生成,具备优秀的时序连贯性和运动推理能力

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值