Kinect虚拟试衣间开发(5)-动作识别

本文介绍了利用Kinect SDK2的Kinect Studio和Visual Gesture Builder进行机器学习模型创建,构建姿势库的过程。通过录制和标记视频,生成gba数据库文件,实现特定动作(如拍照和脱衣)的识别。详细步骤包括添加引用,导入数据库文件,并在代码中处理gesture_arrive事件来执行相应操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

kinect SDK2 比起 Kinect SDK1 多了两个大杀器 Kinect Studio 和 Visual Gesture Builder,这两个软件可以让我们很简单的使用微软自带的机器学习模型,建立自己的姿势库。简单来说就是Kinect Studio 录制和剪辑视频(可以选择自己想要Stream ),然后用Visual Gesture Builder标记视频中的动作,然后生成gba数据库文件。
具体操作过程见 微软发布在 Microsoft Visual Academy 的官方教程视频

这里我用两个动作执行拍照和脱衣的操作


准备过程

  • 添加AdaBoostRech.dll 和 RFRProgressTech.dll 的引用

  • 在解决方案中添加DataBase文件夹,并在文件夹中加入之前软件生产的gba数据库文件

这里写图片描述

代码部分

  • 变量声明
//路径不对
        private readonly string gestureDatabase = "WpfApplication1/WpfApplication1/DataBase/clean.gba";
        private readonly string photoDatabase = "C:/Users/Wen/Desktop/实验DataBase/take_photo.gba";
        private readonly string cleanGestureName = "clean";
        private string photoGestureName = "take_photo";
        private VisualGestureBuilderFrameSource vgbFrameSource = null;
        private VisualGestureBuilderFrameReader vgbFrameReader = null;
  • 变量初始化
 // create the vgb source. The associated body tracking ID will be set when a valid body frame arrives from the sensor.
            this.vgbFrameSource = new VisualGestureBuilderFrameSource(kinectSensor, 0);
            this.vgbFrameSource.TrackingIdLost += 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值