Kinect 开发 —— Kinect for windows SDK

本文深入探讨了使用Kinect传感器进行图像与音频处理的技术,包括彩色图像视频流、深度图像视频流的采集,骨骼跟踪与音频识别API的运用。详细介绍了如何利用AForge.NET框架进行计算机视觉与机器学习任务,强调了OpenCV在图像处理中的高效性。文章还详细阐述了Kinect NUIAPI的使用方法,包括初始化、事件处理与数据流获取,并讨论了KinectAudioDMO与WindowsSpeechSDK的功能。最后,文章展示了如何通过管道方式处理来自Kinect的数据,以及如何实现骨骼跟踪和音频处理,提供了实用的应用层API详解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

开发 —— 基本的SDK和Windows 编程技巧(彩色图像视频流,深度图像视频流的采集,骨骼跟踪,音频处理,语音识别API)

深度数据,就是Kinect的精髓和灵魂,很多问题都转换为深度图像的模式识别问题

AForge.NET 是一套C#编写的Framework,提供计算机视觉,机器学习 www.aforgenet.com

图像处理需要消耗大量的计算资源,使用C#这类托管语言并不明智,应多使用OpenCV

应用层API详解

NUI API

Kinect Audio DMO :提供束波成形和音源定位功能

Windows Speech SDK : 提供音频,语音,多媒体API集以及微软的语言识别功能

 


Kinect 的核心 NUI API

最多支持4个Kinect设备连接在同一个计算机上,但应用程序只能指定其中一个Kinect启用“骨骼跟踪”功能。多个应用程序无法同时共用一个kinect传感器

1,获得 Kinect 实例

KinectSensor sensor=(from sensorToCheck inKinectSensor.KinectSensors where sensorToCheck.Status==KinectStatus.Connected select sensorToCheck).FirstOrDefault();

foreach(KinectSensor KinectSensor indexer KinectSensor.KinectSensors)
{
    if(KinectSensor.Status==KinectStatus.Connected)
    {
        KinectSensor=kienct;
        break;
    }
}

 

2,调用 KinectSensor.Start 方法初始化并启动Kinect 传感器

3,注册相关事件,(如视频流或深度数据到来的事件,骨骼跟踪事件,并基于这些事件调用SDK提供的API进行处理)

KinectSensor.ColorFrameReady

KinectSensor.DepthFrameReady

KinectSensor.SkeletonFrameReady

KinectSensor.AllFrameReady

4,调用KinectSensor.Stop 方法关闭Kinect传感器

 

Kinect NUI API 通过 “管道”的方式处理来自Kinect传感器的数据。在初始化时,应用程序指定它所需要的传感器数据。(色彩,深度,深度和用户编号,骨骼跟踪)

这些选项必须在初始化中设定,否则将无法使用数据。

 


Kinect Audio DMO

提高音频质量      波束成形

回声消除  回声抑制  自动增益控制(当用户靠近或远离麦克风时,自动增益算法使得声音振幅保持一致)   波束成形

Microsoft.Speech 类库的关键对象是 SpeechRecognitionEngine,负责从Kinect传感器获取降噪预处理过的音频数据流,然后分析和解释,从而进一步匹配出最合适的语音命令

SpeechRecognitionEngine 基于一定的语法表达来进行语音命令识别,Grammar 对象由一系列的单个单词或词组组成,由类GrammarBuilder来表达,语法可以基于选择Choices类和通配符来表达。

 


数据流概述

1,彩色图像数据

图像质量的高低将影响到Kinect传感器与计算机间的传输速率

应用程序可以设定彩色图像的编码格式,包括RGB,YUV两种编码

30帧每秒的传输速度和320*240的分辨率

2,用户分割数据

深度图像的每个像素由2字节,共16位组成

每个像素的高13位代表从Kinect红外摄像头到最近物体对象的距离,以毫米为单位

低3位字节表示被跟踪的用户索引编号,这3位字节会被转换为整数值类型,并不作为标志位

在代码编写过程中不要引用特定的“用户索引号”,即使针对同一个人,Kinect骨骼跟踪返回的“用户索引编号”也可能发生变化

通过 “用户分割数据”可以将用户深度图像从原始深度图像中分离出来,通过坐标映射,也可以进一步将用户彩色图像从原始彩色图像中分离出来 —— 达到“增强现实”的效果

3,深度图像数据

每一个像素包含了特定的距离信息

对于Kinect红外摄像头,可以通过 DepthImageStream.DepthRange枚举类型了解当前摄像头的工作模式:

TooFarDepth

TooNearDepth

UnknowDepth

深度图像的每个像素为16位,定义一个short数据来存储深度图像:

short[] depthPixelData=new showrt[depthFrame.PixelDataLength];
depthFrame.CopyPixelDataTo(depthPixelData);

对应深度图像中的每个点 p(X,Y),depthFrame.Width为深度图像宽度,通过位运算来计算某个像素所表达的目标物体与Kinect的距离

Int32 depth = depthPixelData[pixelIndex]>>DepthImageFrame.PlayerIndexBitmaskWidth;

 


如何获取数据流

1,轮询模(拉)

首先开启图像数据流,然后请求帧数据并设置等待时间为T,单位为毫秒;如果帧数据尚未就绪,则系统将等待T时间后返回。如果帧数据成功返回,则应用程序可请求下一帧数据,并在同一线程执行其他操作

OpenNextFrame(T)  T—— 等待新数据返回的最长时间

2,事件模型

应用程序注册数据流的FrameReady事件,当事件触发时,将会调用事件的属性 FrameReadyEventArgs 来获取数据帧

不能对同一数据流同时使用者两种模式

AllFrameReady 事件包括了三种数据流,如应用程序注册了AllFrameReady事件,任何试图以采用“拉”(轮询)的方式获取流中的数据都会产生 InvalidOperationException

在某些应用中,为了保持深度图像和彩色图像尽可能的同步,可以采用轮询模式 —— 通过 Timestamp属性


骨骼跟踪

骨骼信息检索

1,轮询模式  SkeletonStream.OpenNextFrame

2,事件模型  KinectSensor.AllFramesReady 事件,一旦新的骨骼数据准备好,该事件触发,调用 SkeletonFrameReadyEventArgs.OpenSkeletonFrame 来获取该帧

骨骼跟踪对象选择

如果需要手动选择跟踪对象,需要使用 AppChoosesSkeletons 属性 和ChooseSkeletons 方法。


NUI 坐标转换

MapDepthToColorImagePoint —— 深度图像坐标系——彩色图像坐标系

MapDepthToSkeletonPoint  ——  深度图像坐标系 —— 骨骼跟踪坐标系

MapSkeletonPointToColor —— 骨骼跟踪坐标系 —— 彩色图像坐标系

MapSkeletonPointToDepth ——骨骼跟踪坐标系——深度图像坐标系

即使使用同样的分辨率,深度图象帧的像素也无法一一对应到彩色图像帧中去 —— 因为两个摄像头位于Kinect的不同位置

深度图像帧的DepthImageFrame类中有3个坐标转换方法

MapFromSkeletonPoint 将骨骼关节点坐标映射为深度图像点坐标

MapToColorImagePoint 将深度图像中的某点坐标映射为同步对应的彩色图像帧的点坐标

MapToSkeletonPoint 将审图图像中的某点坐标映射为同步对应的骨骼数据帧的点坐标

 

 

Z轴表示红外摄像头光轴,与图像平面垂直。光轴与图像平面的交点,即为图像坐标系的原点

深度图像坐标系和骨骼跟踪坐标系都是Kinect摄像头坐标系,原点为红外摄像头中心,X轴Y轴与图像的X轴Y轴平行,Z轴位红外摄像头光轴,它与图像平面垂直

屏幕坐标系 —— 左上角为原点,X轴向右为正,Y轴向下为正

深度图像空间坐标 —— 以毫米为单位

骨骼空间坐标 —— 以米为单位

 

传感器阵列和倾斜补偿

每个骨骼帧都包括一个描述重力的值。该值是由内部的三轴加速度计和传感器图像测量来配合计算得到的。在运动情况下,加速度计测量重力的方向,并将其余水平垂直的的向量

骨骼镜像

SDK 中没有提供非镜像的骨骼跟踪

实现镜像骨骼很简单 —— 反转骨骼节点的eX坐标值就可以实现此效果

转载于:https://www.cnblogs.com/sprint1989/p/3823100.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值