骨骼识别的应用场景
如今,当前疫情大环境之下。很多人,因为居家办公或者其他原因闷在家里不能外出健身。那么,借助骨骼识别和卷积神经网络模型,计算机视觉开发者可以通过相对应的API,结合相对轻量化一些的卷积神经网络模型,来构建如Keep这类的线上锻炼监督APP。
用户通过将摄像头对准自己,使得神经网络能过精确地通过人体骨骼框架,判断出用户是否有在“认认真真”的做运动。
骨骼网络也可以应用在3D模型构建中,通过将获取到的骨骼网络信息,与Unity或虚幻等引擎中的3D模型进行动态绑定,即可得到属于自己的虚拟人物形象。
骨骼识别的实现原理
通过观察MediaPipe的官方文档,我们可以看到

MediaPipe是通过两套深度神经网络:即基于GHUM模型的BlazePose和ResNet50模型的AlphaPose。
以下是MediaPipe官方对于模型的概述:
该检测器的灵感来自我们自己的轻量级BlazeFace模型,用于MediaPipe 人脸检测,作为人体检测器的代理。它明确地预测了两个额外的虚拟关键点,将人体中心、旋转和比例牢牢描述为一个圆圈。受莱昂纳多的《维特鲁威人》的启发,我们预测了一个人臀部的中点、包围整个人的圆的半径以及连接肩部和臀部中点的连线的倾斜角。

另外,MediaPipie通过从GHUM模型中获取到33个定位点,用于对人体骨骼的完整检测,见下图:

环境准备
请确保你的Python环境中包含如下的库,才能顺利完成依赖处理并安装mediapipe
- numpy
- tensorflow
- opencv
使用pip install mediapipe来安装mediapipe模块
pip install mediapipe
代码实战
我这里准备了一个特别视频用于检测骨骼API检测。但是在开始之前,我们要先把我们使用的模块导入进来
import time
import cv2
import mediapipe as mp
import sys
首先我们初始化MediaPipe标志点绘制器和MediaPipe姿态检测器
# 初始化MediaPipe绘图工具,以及样式
mp_drawing = mp.solutions.drawing_utils
mp_drawing_styles = mp.solutions.drawing_styles
mp_pose = mp.solutions.pose
初始化OpenCV窗口
MediaPipe骨骼识别:实现在线健身监督与虚拟形象创建

本文介绍了MediaPipe在骨骼识别上的应用,包括在线锻炼监督APP和3D虚拟形象构建。MediaPipe利用BlazePose和AlphaPose模型检测人体骨骼,通过OpenCV处理视频流,实现实时运动监测。此外,还提供了环境准备、代码实战及运行效果展示,强调了MediaPipe如何简化计算机视觉开发者的工作,提升开发效率。
最低0.47元/天 解锁文章
9435

被折叠的 条评论
为什么被折叠?



