【IVIF】Two-Level Consistency Metric for Infrared and Visible Image Fusion

本文的特征提取和图像重建部分的网络很简单,就使用了一个U-Net+,作者分析说IVIF任务没有GT,都是通过设计损失函数来约束融合图像和源图像之间的距离,这是一种**单层一致性度量**,即最终的融合结果接近于源图像之间的折中。作者认为源图像的高频信息没有很好保留(作者在行文里先举了几个例子来说明这一点)因此作者设计了一个分支,使用傅里叶变换,即高频注意力模块获取增强的源图像,然后使用损失函数约束融合结果F和增强的源图像之间的距离,同时,设计了一个Fusion Measurement模块用于分解F得到IR和VIS,进一步和增强的源图像之间做约束,此为:Two-Level Consistency Metric 

发表自TIM 2022
代码公开

Ma J.Y.组有一篇文章,输入X--->融合结果Y---->分解Xde,X和Y之间有个损失,分解的Xde和X也有一个损失。也是一个分解双约束的思想。不同的是,作者动机是保持高频部分,这里把X通过高频注意力模块增强了高频部分得到了Xen,使用Xen与Y和Xde做约束

1、目前方法存在的问题

1)大多数方法中手动设计的融合规则过于复杂。

2)特征提取忽略了两个源图像的独特特性。因此,融合结果无法有效地保留关键信息。

3)基于表示学习的方法的性能对源图像的复杂性敏感。

作者分别展示了IR和VIS的高频部分,以及不同融合方法结果的高频部分

### 论文概述 论文《Instance-Adaptive and Geometric-Aware Keypoint Learning for Category-Level 6D Object Pose Estimation》由Xiao Lin等人在CVPR2024上发表,旨在解决类别级6D物体姿态估计中的关键点学习问题。该方法通过实例自适应和几何感知的关键点学习策略,提高了姿态估计的准确性和鲁棒性[^2]。 ### 核心思想 #### 实例自适应关键点学习 传统的关键点检测方法通常依赖于固定的特征描述子,这种方法在处理不同实例时可能会失效。实例自适应关键点学习通过动态调整特征提取器,使得每个实例都能获得最适合其自身特征的关键点描述。这不仅提高了关键点检测的准确性,还增强了模型对不同实例的泛化能力[^1]。 #### 几何感知关键点学习 几何感知关键点学习则是通过引入几何约束来优化关键点的位置。具体来说,该方法利用了物体表面的法线方向和曲率信息,确保关键点分布在具有显著几何特征的位置。这种策略有助于提高关键点的空间一致性,从而提升姿态估计的精度[^2]。 ### 技术实现 #### 网络架构 论文提出了一种双分支网络架构,分别用于实例自适应特征提取和几何感知关键点检测。实例自适应分支通过注意力机制动态调整特征权重,而几何感知分支则利用几何特征图进行关键点预测。 ```python class InstanceAdaptiveKeypointNet(nn.Module): def __init__(self): super(InstanceAdaptiveKeypointNet, self).__init__() # 定义实例自适应分支 self.instance_branch = AttentionFeatureExtractor() # 定义几何感知分支 self.geometry_branch = GeometryFeatureExtractor() def forward(self, x): instance_features = self.instance_branch(x) geometry_features = self.geometry_branch(x) # 结合两种特征进行关键点预测 keypoints = self.keypoint_predictor(instance_features, geometry_features) return keypoints ``` #### 损失函数 为了联合优化实例自适应和几何感知部分,论文设计了一个多任务损失函数,包括关键点位置损失、实例特征匹配损失和几何一致性损失。 ```python def loss_function(keypoints_pred, keypoints_gt, features_pred, features_gt, normals_pred, normals_gt): keypoint_loss = mse_loss(keypoints_pred, keypoints_gt) feature_match_loss = cosine_similarity(features_pred, features_gt) geometric_consistency_loss = normal_consistency(normals_pred, normals_gt) total_loss = keypoint_loss + 0.5 * feature_match_loss + 0.3 * geometric_consistency_loss return total_loss ``` ### 应用场景 该方法适用于需要高精度6D姿态估计的应用场景,如机器人抓取、自动驾驶中的物体识别以及增强现实中的交互定位。由于其实例自适应特性,特别适合处理同一类别的多个不同实例,例如在工业自动化中识别不同型号的零件。 ### 总结 通过实例自适应和几何感知的关键点学习策略,《Instance-Adaptive and Geometric-Aware Keypoint Learning for Category-Level 6D Object Pose Estimation》提供了一种高效且准确的姿态估计解决方案。这种方法不仅提升了关键点检测的鲁棒性,还在多种应用场景中表现出色[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值