DenseCap源码实现

本文档详细介绍了如何在Ubuntu环境中安装Torch及其依赖库,包括CUDA和CUDNN(如果使用GPU),并从GitHub下载预训练的DenseCap模型。在下载完成后,将模型应用于一张图片进行测试,通过运行特定的Lua脚本来生成结果,并使用浏览器进行可视化展示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安装Torch

在Ubuntu终端,输入:

git clone https://github.com/torch/distro.git ~/torch --recursive
cd ~/torch; bash install-deps;
./install.sh

接下来会提示是否把torch加入bashrc中,输入yes即可。 上面没有装git的要预先装好git。

安装Torch 依赖库(必装)

luarocks install torch
luarocks install nn
luarocks install image
luarocks install lua-cjson
luarocks install https://raw.githubusercontent.com/qassemoquab/stnbhwd/master/stnbhwd-scm-1.rockspec
luarocks install https://raw.githubusercontent.com/jcjohnson/torch-rnn/master/torch-rnn-scm-1.rockspec
后面两条是rnn的。

CUDA和CUDNN(GPU选装)

luarocks install cutorch
luarocks install cunn
luarocks install cudnn

下载预训练网络

将在GitHub上面下载的文件中scripts文件夹中的文件download_pretrained_model.sh上传到服务器端,在终端打开:sh download_pretrained_model.sh。这个命令是用于下载预训练好的DenseCap网络的(模型有点大,大约1.2GB)。下载好的模型自动保存到data/models/densecap中,为.t7文件,如下图:

整个下载好的文件应该放在densecap-master目录下的,因为后面的run_model_lua是在该目录下。

用一张图片测试训练好的网络

选定要测试的图片,resize到720*480(其他尺寸的会报错,所以我用画图resize的),然后放在imgs目录下。

源码已经预先提供了一张elephant.jpg。

然后在densecap-master目录下打开终端,输入以下代码:

th run_model.lua -input_image imgs/elephant.jpg

该代码用于测试图像,测试结果保存到vis文件中,如下:

接着输入:

cd vis
python -m SimpleHTTPServer 8181

该代码用于在浏览器中可视化,最后打开浏览器 http://localhost:8181/view_results.html就可以看到测试结果啦~

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值