HigherHRNet: Scale-Aware Representation Learning for Bottom-Up Human Pose Estimation (CVPR2020)

HigherHRNet是HRNet的升级版,它在底向上的人体姿态估计任务中表现出色。通过增加反卷积层,提升特征图分辨率,从而提高了预测精度。HigherHRNet采用多分辨率监督,利用不同尺度的heatmap融合实现对不同大小人物的准确定位。在COCO和Crowd Pose数据集上,HigherHRNet达到了最先进的结果。

official pytorch code
paper link
恭喜文章被CVPR 2020接收。本来19年的时候在arxiv上找到了这篇文章,当时还是叫做"Bottom-up Higher-Resolution Networks for Multi-Person Pose Estimation",今天一看arxiv上已经更新到v3了,名字也改了。

HigherHRNet是在HRNet和Simple baseline工作的基础上形成了。HRNet因其可以一直保持一个high resolution way来提取feature,提取的feature效果很好,从而可以用在pose estimation,object detection,semantic segmentation等工作上,具体可以查看here. HigherHRNet则更进一步,因为之前simple baseline的工作证明了,通过反卷积得到更高分辨率的featuremap有助于pose estimation效果的提高,因此,HigherHRNet就是在HRNet原本输出的featuremap基础上,额外加入了一个反卷积,使得模型的输出size进一步提高,pose estimation效果更好。HigherHRNet的具体网络结构如下图所示:在这里插入图片描述
虚线后面就是HigherHRNet在HRNet基础上新加的内容。除了需要在原本的1/4 branch上得到heatmap输出外,又在此基础上额外加入个反卷积得到1/2的featuremap,并在后面加上4个residual block用来refine,最终得到1/2

### 论文概述 论文《Instance-Adaptive and Geometric-Aware Keypoint Learning for Category-Level 6D Object Pose Estimation》由Xiao Lin等人在CVPR2024上发表,旨在解决类别级6D物体姿态估计中的关键点学习问题。该方法通过实例自适应和几何感知的关键点学习策略,提高了姿态估计的准确性和鲁棒性[^2]。 ### 核心思想 #### 实例自适应关键点学习 传统的关键点检测方法通常依赖于固定的特征描述子,这种方法在处理不同实例时可能会失效。实例自适应关键点学习通过动态调整特征提取器,使得每个实例都能获得最适合其自身特征的关键点描述。这不仅提高了关键点检测的准确性,还增强了模型对不同实例的泛化能力[^1]。 #### 几何感知关键点学习 几何感知关键点学习则是通过引入几何约束来优化关键点的位置。具体来说,该方法利用了物体表面的法线方向和曲率信息,确保关键点分布在具有显著几何特征的位置。这种策略有助于提高关键点的空间一致性,从而提升姿态估计的精度[^2]。 ### 技术实现 #### 网络架构 论文提出了一种双分支网络架构,分别用于实例自适应特征提取和几何感知关键点检测。实例自适应分支通过注意力机制动态调整特征权重,而几何感知分支则利用几何特征图进行关键点预测。 ```python class InstanceAdaptiveKeypointNet(nn.Module): def __init__(self): super(InstanceAdaptiveKeypointNet, self).__init__() # 定义实例自适应分支 self.instance_branch = AttentionFeatureExtractor() # 定义几何感知分支 self.geometry_branch = GeometryFeatureExtractor() def forward(self, x): instance_features = self.instance_branch(x) geometry_features = self.geometry_branch(x) # 结合两种特征进行关键点预测 keypoints = self.keypoint_predictor(instance_features, geometry_features) return keypoints ``` #### 损失函数 为了联合优化实例自适应和几何感知部分,论文设计了一个多任务损失函数,包括关键点位置损失、实例特征匹配损失和几何一致性损失。 ```python def loss_function(keypoints_pred, keypoints_gt, features_pred, features_gt, normals_pred, normals_gt): keypoint_loss = mse_loss(keypoints_pred, keypoints_gt) feature_match_loss = cosine_similarity(features_pred, features_gt) geometric_consistency_loss = normal_consistency(normals_pred, normals_gt) total_loss = keypoint_loss + 0.5 * feature_match_loss + 0.3 * geometric_consistency_loss return total_loss ``` ### 应用场景 该方法适用于需要高精度6D姿态估计的应用场景,如机器人抓取、自动驾驶中的物体识别以及增强现实中的交互定位。由于其实例自适应特性,特别适合处理同一类别的多个不同实例,例如在工业自动化中识别不同型号的零件。 ### 总结 通过实例自适应和几何感知的关键点学习策略,《Instance-Adaptive and Geometric-Aware Keypoint Learning for Category-Level 6D Object Pose Estimation》提供了一种高效且准确的姿态估计解决方案。这种方法不仅提升了关键点检测的鲁棒性,还在多种应用场景中表现出色[^1]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值