基于深度学习的Graph Matching中损失函数的理解

本文概述了ThinkMatch工程中关键的损失函数,如OffsetLoss、PermutationLoss、PermutationLossHung、HammingLoss等,介绍了它们在GraphMatching中的应用,包括OffsetLoss的计算原理、PermutationLoss的改进及其交叉熵核心、以及HammingLoss对离散矩阵优化的作用。

本文介绍以下损失函数:
①PermutationLoss
②CrossEntropyLoss
③PermutationLossHung
④OffsetLoss
⑤FocalLoss
⑥InnerProductLoss
⑦HammingLoss
(顺序依照ThinkMatch工程中 src/loss_func.py 的顺序)

OffsetLoss

18年的Deep Learning of Graph Matching将深度学习与Graph Matching进行首次结合,论文中对以往一些方法进行了组合,并着重对Graph Matching训练过程中的反向传播进行了严密的推导,其中采用的损失函数为 OffsetLoss

在这里插入图片描述
其中φ函数形式如下,即对两位移向量(displacement vector)di、di^gt 之差进行度量,得到一标量。
根号下后一项为一极小数,避免X^TX为0,影响训练的稳定性
在这里插入图片描述
di、di^gt 由论文中所提出的 Voting layer进行转换,这一layer,在工程中被称作 displacement_layer,也在src目录下。

displacement vector的计算公式:
在这里插入图片描述
对应的代码理解:
在这里插入图片描述①对s进行输出,得到8个10*10的矩阵,8表示batch size的大小,矩阵的大小由source image和target image中节点数决定。(表示两张图 各自节点之间的匹配关系)
在这里插入图片描述②对P_src 和 P_tgt进行输出,都得到了(8,10,2)维度的矩阵。

其内容为坐标值?
是的

target值和so

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值