NYU Hand Pose Dataset与SCLI的matlab实现——与回头一想

本文介绍了使用SLIC算法对NYU Hand Pose Dataset进行超像素分割的实践过程,探讨了数据集中的RGB和深度图像存储方式,以及标签的存储和读取。通过matlab实现,作者旨在提高手部分割效率,为关键点检测和强化学习提供更好的初始条件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了获得高效的手部分割数据集,我们尝试用超像素的方法改造NYU数据集。跑了一个SLIC算法后,我们看看这个NYU数据集。

NYU hand pose dataset

1.a看个例子

用matlab打开工程,运行visualize_example.m

1.b深度图像存储的问题

数据集中图像有3种:RGB,深度图,合成深度图。RGB图像的存储是用3个Byte(8位2进制数据)表示,深度图和合成深度图采用的是第2个Byte和第3个Byte表示的16位深度数据。

虽然不知道NYU所谓的合成手部数据是怎么得到的,不过用这个数据来制作标签明显是更加准确的。

1.c标签的存储和读取

标签存储在joint_data.mat中,包括uvd坐标和xyz坐标,前者是图像坐标,后者是世界坐标。(相机编号,图像编号,

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值