Alphapose配置

对于人体骨架数据提取,从OpenposeAlphapose,对人少的场景都做出了很好的性能.

港中文AAA12018的ST-GCN在Openpose的基础上,使用时空图卷积网络进行了简单动作识别,准确率有待提高。在Kinetics (7.5G)and NTU-RGBD(5.8G)数据上进行了相关测试,由于Openpose对caffe环境要求很苛刻,安装编译过程中出现问题,稍后会总结。
Alphapose最近遇到了行人匹配的问题,由于Alphapose在检测时候的问题,导致无法确定时间t内同一个人的骨架数据,使得后边的简单的动作特征无法有效准确的提取
港中文AAA12018:https://arxiv.org/abs/1801.07455 开源项目: https://github.com/yysijie/st-gcn
上交开源项目:https://github.com/MVIG-SJTU/AlphaPose

主要讲一下Alphapose的配置安装教程,特别感谢小伙伴的帮助 https://me.youkuaiyun.com/weixin_42054950
(1)机器基本配置:cuda9.0 cudnn 7.1等不在介绍;
(2)训练好的模型duc_se.pth 下载链接:https://pan.baidu.com/s/1xXLHvsaVUNHfHDjHI2cVtw
提取码:wb24 放在 AlphaPose-pytorch\models\sppe
(3)训练好的模型yolov3-spp.weights下载链接:https://pan.baidu.com/s/1mLhdNZtUPs6fSA8eCGxgBA
提取码:akxo 放在 AlphaPose-pytorch\models\yolo

安装requirements.txt里边的依赖项:注意torch==0.4.0和torchvision安装时间会很长,耐心等待,其余的缺啥安装啥就行,每个人的环境也不太一样。使用命令测试pytorch是否安装成功

python3
import torch

demo测试:
1.视频文件提取并保存

python3 video_demo.py --video /home/*****/*****/AlphaPose-pytorch/examples/testvideo/2.mp4 --outdir examples/resvideo --save_video

2.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res 

3.摄像头视频流实时提取

python3 webcam_demo.py --webcam 0 --outdir examples/res --vis

4.批量照片文件提取

python3 demo.py --indir /home/*****/*****/AlphaPose-pytorch/examples/demo --outdir examples/res --fast_inference False --save_img

加速检测:
(1)增加置信阈值 降低NMS阈值

python3 video_demo.py --video ${path to video} --outdir examples/results/ --conf 0.5 --nms 0.45

(2)显存大于8G 增加检测批次

python3 demo.py --indir ${img_directory} --outdir examples/res --detbatch 2

(3)如果不检测小目标人物,降低输入到检测网络 inp_dim 是32的倍数

python3 demo.py --indir ${img_directory} --outdir examples/res --inp_dim 480

处理的视频截图,后边有时间想好了之后会对json文件解析再进行介绍:
在这里插入图片描述

AlphaPose是一个基于深度学习的人体关键点检测和全身姿态估计工具,适用于Windows 11的配置通常需要满足一些基本硬件需求和软件环境设置。以下是大致步骤: **硬件配置**: 1. CPU:Intel Core i5 或更高版本,推荐使用支持CUDA的NVIDIA GPU(如GeForce GTX 1060或以上) 2. 内存:至少8GB RAM,对于大规模的数据处理,建议16GB以上 3. 存储:足够存储模型文件、数据集和AlphaPose安装包 **软件环境**: 1. 操作系统:Windows 11,确保是最新的驱动程序和更新 2. Python:安装Python 3.x(推荐使用3.7及以上),并安装必备库如TensorFlow (GPU版本) 或 PyTorch 3. CUDA & cuDNN:如果你有NVIDIA GPU,需要安装对应版本的CUDA和cuDNN 4. Visual Studio Code or Anaconda:用于编写代码和管理虚拟环境 **安装与配置**: 1. 安装AlphaPose:你可以从其GitHub仓库下载源码并按照指示构建,或者使用pip安装预训练模型。 ```shell git clone https://github.com/microsoft/alphapose.git cd alphapose pip install -r requirements.txt ``` 2. 准备数据集:AlphaPose需要人体关键点数据集,如COCO关键点或_MPII数据集,按文档指引进行准备。 3. 配置文件:打开`config.py`,根据你的硬件调整相应的参数,如`MIN_IMAGE_SIZE`、`MAX_IMAGE_SIZE`等。 **运行与测试**: 在准备好所有依赖后,通过命令行或终端启动AlphaPose,例如: ```shell python demo/run_demo.py --cfg experiments/coco/hrnet/w48_384x288_adam_lr1e-3.yaml --video demo.mp4 ``` 完成上述步骤后,你应该能够运行AlphaPose并在给定视频或图片上展示人体关键点预测。
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值