本文介绍以下损失函数:
①PermutationLoss
②CrossEntropyLoss
③PermutationLossHung
④OffsetLoss
⑤FocalLoss
⑥InnerProductLoss
⑦HammingLoss
(顺序依照ThinkMatch工程中 src/loss_func.py 的顺序)
OffsetLoss
18年的Deep Learning of Graph Matching将深度学习与Graph Matching进行首次结合,论文中对以往一些方法进行了组合,并着重对Graph Matching训练过程中的反向传播进行了严密的推导,其中采用的损失函数为 OffsetLoss

其中φ函数形式如下,即对两位移向量(displacement vector)di、di^gt 之差进行度量,得到一标量。
根号下后一项为一极小数,避免X^TX为0,影响训练的稳定性

di、di^gt 由论文中所提出的 Voting layer进行转换,这一layer,在工程中被称作 displacement_layer,也在src目录下。
displacement vector的计算公式:

对应的代码理解:
①对s进行输出,得到8个10*10的矩阵,8表示batch size的大小,矩阵的大小由source image和target image中节点数决定。(表示两张图 各自节点之间的匹配关系)
②对P_src 和 P_tgt进行输出,都得到了(8,10,2)维度的矩阵。
其内容为坐标值?
是的
target值和so

本文概述了ThinkMatch工程中关键的损失函数,如OffsetLoss、PermutationLoss、PermutationLossHung、HammingLoss等,介绍了它们在GraphMatching中的应用,包括OffsetLoss的计算原理、PermutationLoss的改进及其交叉熵核心、以及HammingLoss对离散矩阵优化的作用。
最低0.47元/天 解锁文章
1739

被折叠的 条评论
为什么被折叠?



