Yolo pose的关键点对应关系

YOLO-pose模型

YOLO-pose模型的17个点分别对应关系如下:

COCO_keypoint_indexes = {
   
    0: 'nose',
    1: 'left_eye',
    2: 'right_eye',
    3: 'left_ear',
    4
### YOLOv8 Pose 关键点检测实现方法 #### 数据准备 对于YOLOv8的关键点检测,数据集的构建至关重要。数据集应包含带有标注的目标框以及这些框内部的关键点位置。假设输入批次大小为8,在该批处理中有14个正样本检测框,每个框内含有待预测的关键点数量n。 #### 正负样本匹配策略 采用top-k机制作为正负样本的选择标准,这里设定`topk=10`意味着选取前十个最有可能的对象边界框作为正样本参与后续运算。通过此方式可从原始预测分支尺寸\[8, 8400, 4\]中筛选出形状为\[140, 4\]的有效候选区域坐标集合[^1]。 #### 特征提取与关键点定位 针对上述获得的每一条有效边框记录,进一步利用网络结构中的特定层——即负责关键点坐标的预测部分,其输出张量形式为\[8, 8400, n, 3\],其中最后两维分别表示单个框内的所有可能关键点及其置信度得分。依据之前确定下来的正样本掩码(mask),可以精确抽取对应于这140条真实存在的物体实例下的全部潜在兴趣点信息,形成新的三维数组\[140, n, 3\]。 #### Loss函数设计 为了评估模型性能并指导参数更新方向,定义了一种基于对象关键点相似性的损失项—OKS(Object Keypoint Similarity) loss。具体操作时会把实际标签里的地面实况(GT)关键点向量\[14, n, 3\]重复扩展至与当前批次下所有被选作正面案例的数量相一致的程度(\[140, n, 3\]),随后两者间执行逐元素差异平方求和的操作完成误差量化工作。 ```python feats, pred_kpts = preds if isinstance(preds[0], list) else preds[1] ``` 这段代码展示了如何分离出用于计算loss所需的两个主要成分:特征图(`feats`)和预测的关键点位置(`pred_kpts`)。这是整个训练流程中的核心环节之一,直接影响着最终模型的质量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值