Unsupervised Bidirectional Cross-Modality Adaptation论文解读

本文提出了一种名为SIFA的无监督域自适应网络,它结合了图像对齐和特征对齐,以改善分割网络在无标签目标域中的性能。该方法特别适用于医学图像,因为获取额外的标签成本高昂。SIFA网络通过图像转换和特征编码器共享参数实现图像和特征的协同对齐,同时利用对抗性学习在低维空间中增强特征分布的域不变性。尽管该方法在二维图像分割上取得进展,但在三维模型中的应用及不平衡数据集的适应性仍有待探索。

在这里插入图片描述

概要:本篇文章提出了 一种无监督域自适应SIFA网络(图像与特征协同对齐)可以使分割网络有效的适应无标签的目标域(注意目标域无标签,源域有标签),旨在解决测试数据集在已通过训练数据集训练的分割网络上效果不佳的问题

域自适应:通过利用在训练数据集中得到的知识来提高模型在测试数据集上的性能
无监督域自适应的目标域不需要标签(无需标签,十分适用于医学图像,额外标签需要专业知识且价格昂贵),现有的无监督域自适应方法有两种,①图像对齐 ②特征对齐。本文同时使用以上两种方法,协同作用提高域自适应的性能

创新点:①在统一的框架中,同时利用图像对齐和特征对齐的优势,在互补协同作用下来提高域自适应的性能 ②MRI和CT图像之间可以双向转换③无监督,无需额外的标签④图像转换和分割网络共享编码器,参数共享,二者协同作用(反馈)达成更好的效果

在这里插入图片描述
上图为文章框架图,蓝色代表源域数据流 红色代表目标域数据流

图像对齐(应该可以理解为跨模态合成图片 只是图片没有输出 而是喂给了分割网络)

在这里插入图片描述
Gt和Dt用于图像对齐,转换源域图像外观生成类目标域图像,向Gt输入Xs 输出Xs->t,
Gt(Xs)=Xs->t
Dt用于鉴别生成的目标域图片还是真实的目标域图片

在这里插入图片描述
注意文中原句:转换来的图像应与目标域图像类似,但具有结构语义的原始内容要保持不变!
在这里插入图片描述
在这里插入图片描述
反向生成器Gs=E+U E为特征编码器 U为上采样解码器 Gs(Xs->t)=Xs->t->s Gs(Xt)=Xt->s
在这里插入图片描述
Ds用于鉴别是合成的源域图像还是真实的源域图像 Gs用于鉴别图片是Xs->t-s还是Xt->s,Ds如果成功分类 证明生成的图片Xs->t-s、Xt->s中包含S域和T域的特征
在这里插入图片描述
分割网络=E+C 特征编码器E+分类器C组成分割网络
在这里插入图片描述
文中提到分割网络使用{Xs->t,Ys}训练 可能就是所说的有监督机制

特征对齐

在这里插入图片描述
论文中介绍特征空间是高维空间,难以直接对齐,因此将特征空间映射到两个紧凑的低维空间(①语义预测空间 ②生成的图像空间),使用对抗性学习来增强特征分布的域不变性

语义预测空间
鉴别器Dp用于分类Xs->t 还是Xt的输出,语义预测空间代表人体解刨结构的信息,在不同成像模式下是一致的。如果特征对齐较好,说明则鉴别器无法分辨。当特征对齐效果不佳时,对抗性梯度反向传播到encoder编码器,最小化Xs->t和Xt之间特征分布的距离。
在这里插入图片描述
分割网络使用{Xs->t,Ys}训练 可能就是所说的有监督机制
在这里插入图片描述

生成图像空间
Gs用于鉴别图片是Xs->t-s还是Xt->s,即鉴别图片来自于Xs->t 还是来自Xt。
在这里插入图片描述
如果Gs能成功区分,说明生成的图片Xs->t、Xt中包含原始域(注意是其最初的域)的特征,符合下面的图片中原文
在这里插入图片描述在这里插入图片描述
缺点:①本文使用二维网络进行图像分割任务,在三维模型中同时实现图像和特征对齐尚未被探索②源域和目标域中的数据量相对平衡,对不平衡数据集以及只有有限数量的目标域数据的有效无监督域适应效果未知

### 基于联合模态分布的相似性哈希在大规模无监督深度跨模态检索中的应用 基于联合模态分布的相似性哈希(Joint-modal Distribution Similarity Hashing, JDH)是一种用于解决大规模无监督深度跨模态检索问题的方法。这种方法的核心思想是通过学习一种有效的哈希函数,将来自不同模态的数据映射到一个公共的汉明空间中[^1]。在此空间中,数据点之间的距离能够反映其语义相似性。 JDH 方法通常会考虑多模态数据之间的全局和局部关系,以确保生成的哈希码能够保留原始数据的语义信息。例如,Su 等人提出的深度联合语义重构哈希(Deep Joint Semantics Reconstructing hash, DJSRH)通过构造联合语义亲和矩阵来统一不同模态数据的邻域关系[^1]。这种矩阵能够捕获模态间的一致性和互补性,从而提升跨模态检索的性能。 此外,Zhang 等人提出的 HNH 方法从局部和非局部两个角度考虑多模态实例之间的相似关系,构建了一个更全面的相似矩阵[^1]。这使得生成的哈希码不仅能够反映数据点之间的局部相似性,还能够捕捉全局结构信息。 为了进一步挖掘不同模态数据之间的语义相关性,AGCH 方法利用图卷积神经网络(Graph Convolutional Neural Network, GCN)聚合模态实例之间的相似度信息。通过这种方式,可以更好地对齐不同模态实例的共现信息,从而提高检索精度。 Mikriukov 等人提出的深度无监督对比哈希(Deep Unsupervised Contrast Hashing, DUCH)引入了一种新的多目标损失函数,将对比损失和对抗损失结合起来[^1]。这种方法能够在学习过程中更好地表达跨模态数据之间的相似关系,实现多模态实例表示的一致性。 以下是一个简单的代码示例,展示如何使用对比损失函数训练哈希模型: ```python import torch import torch.nn as nn class ContrastiveLoss(nn.Module): def __init__(self, margin=1.0): super(ContrastiveLoss, self).__init__() self.margin = margin def forward(self, output1, output2, label): euclidean_distance = nn.functional.pairwise_distance(output1, output2) loss_contrastive = torch.mean((1 - label) * torch.pow(euclidean_distance, 2) + label * torch.pow(torch.clamp(self.margin - euclidean_distance, min=0.0), 2)) return loss_contrastive ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

几度热忱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值