《Show and Tell: A Neural Image Caption Generator》论文解读

该博客介绍了图像-字幕生成模型的架构,包括LSTM网络、图像特征提取(如MobileNetV2)和损失函数。模型通过CNN提取图像特征,随后利用LSTM生成描述图像的句子。损失函数基于每个时间步的softmax输出计算。文章还提及了模型防止过拟合的策略。
部署运行你感兴趣的模型镜像

目录

参考论文:

图像-字幕生成模型

模型总览:

LSTM部分:

图像特征提取部分:

损失函数定义


参考论文:

Show and tell: A neural image caption generator | IEEE Conference Publication | IEEE Xplore

[1411.4555] Show and Tell: A Neural Image Caption Generator (arxiv.org)

MobileNetV2: Inverted Residuals and Linear Bottlenecks | IEEE Conference Publication | IEEE Xplore

图像-字幕生成模型

模型总览:

从图1中可以明显的看到image首先经过CNN结构的特征提取器,再将提取的特征传入LSTM网络,由LSTM网络生成句子。注意图中右边的LSTM是LSTM的展开(unrolled)形式,也就是按照词的序列顺序展开。

 图1 总网络架构

展开的模型使用公式表示如下:

公式中的I表示图像;S_t表示第t个词,使用长度是字典大小的one-hot编码表示 ,注意S_0表示起始词;S_N表示停止词,当遇到停止词时,LSTM生成一个句子;W_e表示词嵌入。这样,图像使用视觉 CNN,单词使用单词嵌入,图像和单词都映射到同一个空间。图像I只再t-1时候使用一次,后面的N个时间步都不使用I,因为实验发现会带来过拟合的问题。

LSTM部分:

LSTM网络由输入门、输出门、遗忘门组成。

LSTM的具体公式如下所示:

图像特征提取部分:

图像特征提取可以使用Resnet、GoogleNet、MobileNet、EfficientNet等网络。例如MobileNetV2的网络结构如下:但是需要注意将网络的最后softmax层去掉,连接上需的长度的MLP,将其作为LSTM的输入x_{t-1}

损失函数定义

 损失函数的定义其实如图1中所示,在每个时间步将LSTM的输出经过softmax(),然后求log()取负数得到。

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

KPer_Yang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值