论文实践学习 - Stacked Hourglass Networks for Human Pose Estimation

这篇博客介绍了如何使用Stacked Hourglass Networks在MPII Human Pose Dataset上进行人体姿态估计。内容包括拉取Torch7 Docker镜像,运行Demo代码,以及自定义图片的预处理和姿态估计。此外,还提到了使用Python进行结果可视化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Stacked Hourglass Networks for Human Pose Estimation - Demo Code

Stacked Hourglass Networks for Human Pose Estimation
- Project
- Demo Code – pose-hg-demo
- Pre-trained model
- Training code – pose-hg-train

pose-hg-demo主要包含文件及文件夹内容:
这里写图片描述

这里基于Docker、python和pose-hg-demo.

1. 拉取Torch7镜像

$ sudo nvidia-docker pull registry.cn-hangzhou.aliyuncs.com/docker_learning_aliyun/torch:v1

2. 运行 Demo on MPII Human Pose dataset

下载MPII Human Pose dataset,并将图片放在 images 文件夹.

$ sudo nvidia-docker run -it --rm -v /path/to/pose-hg-demo-master:/media registry.cn-hangzhou.aliyuncs.com/docker_learning_aliyun/torch:v1

# 进入Torch镜像
root@8f1548fc3b34:~/torch# 
cd /media  # 即主机中的 pose-hg-demo-master
th main.lua predict-test # 得到人体姿态估计结果,并保存在'preds/test.h5'中

利用下面的python脚本可视化人体姿态结果:

#!/usr/bin/env python
import h5py
import scipy.misc as scm
import matplotlib.pyplot as plt

test_images = open('../annot/test_images.txt','r').readlines()
images_path = './images/'

f = h5py.File('./preds/test.h5','r')
preds = f['preds'][:]
f.close()

assert len(test_images) == len(preds)
for i in range(len(test_images)):
    filename = images_path + test_images[i][:-1]
    im = scm.imread(filename)
    pose = preds[i]

    plt.axis('off')
    plt.imshow(im)

    for i in range(16):
        if pose[i][0] > 0 and pose[i][1] > 0:
            plt.scatter(pose[i][0], pose[i][1], marker=<
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值