读论文《Multi-scale Transformer Network with Edge-aware Pre-training for Cross-Modality MRImage Synthe》

论文题目:基于边缘感知的多尺度变压器网络跨模态图像合成

论文地址:Multi-Scale Transformer Network With Edge-Aware Pre-Training for Cross-Modality MR Image Synthesis | IEEE Journals & Magazine | IEEE Xplore

项目地址:GitHub - lyhkevin/MT-Net: Multi-scale Transformer Network for Cross-Modality MR Image Synthesis (IEEE TMI)

先看论文,下一篇博客复现代码

摘要

        交叉模态磁共振(MR)图像合成可用于从给定模态生成缺失模态。现有的(监督学习)方法通常需要大量成对的多模态数据来训练有效的综合模型。然而,获得足够的成对数据进行监督训练往往具有挑战性。在现实中,我们经常有少量的成对数据,而大量的未成对数据。

        为了利用成对和非成对数据,本文提出了一种具有边缘感知预训练的多尺度变压器网络(MT-Net),用于跨模态磁共振图像合成。具体而言,首先以自监督的方式对边缘保持掩码自动编码器(edge - mae)进行预训练,同时对每个图像中的随机掩码补丁进行图像插值,并对整个边缘映射进行估计,有效地学习上下文信息和结构信息。此外,为了提高Edge-MAE的性能,提出了一种新的基于补丁的损失方法,根据不同的掩膜补丁的impuimpu难度对其进行不同的处理。在此基础上,在后续的微调阶段,我们设计了一个双尺度选择性融合(DSF)模块,通过整合从预训练的Edge-MAE编码器中提取的多尺度特征来合成缺失模态图像。此外,该预训练编码器还用于从合成图像和相应的真值图像中提取高级特征,这些特征在训练中要求相似(一致)。实验结果表明,即使使用所有可用成对数据的70%,我们的MT-Net也可以达到与竞争方法相当的性能。

思路:编码获得每个模态的特征作为预训练,微调生成对应模拟

引言        

        磁共振成像(MRI)设置不同的扫描参数可以产生不同的模式,如T1加权(T1)、T2加权(T2)、T1加权动态对比增强(T1c)和T2流体衰减反演恢复(FLAIR)。这些对比度各有用处。

        有可能出现模态缺失,医学图像合成的目的是从给定的源模态图像中预测缺失模态(或称为目标模态)图像。

        现在的GAN 和CNN存在的一些问题,巴拉巴拉……transformer的设计植根于自关注机制,该机制有效地捕捉了输入序列元素之间的相互依存关系,以获得更好的特征表示能力

        本文提出了一种多尺度变换网络(MT-Net),通过边缘感知的自监督预训练来利用配对和非配对数据。贡献如下:

  1. 提出了一种新的跨模态MRI图像合成框架,利用自监督预训练处理有限的配对数据挑战。
  2. 提出了边缘保持的掩码自编码器(Edge-MAE),通过同时进行图像填充和整体边缘图估计来保留强度信息和边缘信息。
  3. 设计了一种新颖的基于补丁的损失函数,通过根据各自填充的难度不同对待不同的掩码补丁,增强了Edge-MAE的性能。
  4. 提出了MT-Net,通过整合预训练Edge-MAE编码器提取的多尺度特征进行微调,用于合成目标模态图像。
要验证Zhou et al. 所发表的论文《MS-Former: Multi-Scale Transformer for Skin Lesion Segmentation》是否真实存在,可以通过以下几种方式进行确认: ### 1. 学术数据库检索 该论文被提及发表于《Medical Image Analysis》期刊,该期刊是医学图像分析领域的权威期刊之一。用户可以通过学术数据库如ScienceDirect、IEEE Xplore、SpringerLink或PubMed等检索该论文的标题、作者和期刊信息,以确认其存在性。 例如,在ScienceDirect网站上搜索该论文标题“MS-Former: Multi-Scale Transformer for Skin Lesion Segmentation”,并筛选期刊来源为《Medical Image Analysis》,若能查到对应的论文摘要和作者列表,则可确认论文的真实性[^1]。 ### 2. 作者信息验证 论文作者包括Zhou等人,可以通过查阅相关研究人员的学术主页或Google Scholar页面,查看其发表记录中是否包含该论文。例如,Qichao Zhou作为作者之一,其Google Scholar页面或所在机构的科研系统中可能列有该论文信息。 ### 3. 数据集与模型开源验证 通常,高质量的医学图像分割论文会公开其代码或模型实现,以供复现与验证。用户可以搜索该论文是否在GitHub、GitLab等平台上有相应的开源项目,例如搜索关键词“MS-Former GitHub”或“MSFormer skin lesion GitHub”,若能找到相关仓库,则进一步支持论文的真实性。 此外,一些会议或期刊在发表后会提供论文补充材料(Supplementary Material),包括实验细节、代码链接和数据集信息。这些内容也可作为验证论文真实性的辅助依据。 ### 4. 引用情况验证 通过Google Scholar、Semantic Scholar或Web of Science等平台,可以查询该论文的引用情况。若该论文已有一定数量的引用记录,则说明其已被学术界广泛认可和引用,从而进一步验证其存在性。 ### 示例代码片段 以下是一个用于验证论文结构的简化模型定义,可作为论文中提出方法的实现参考: ```python class MultiScaleEncoder(nn.Module): def __init__(self, embed_dims, num_heads): super(MultiScaleEncoder, self).__init__() self.stages = nn.ModuleList() for dim, heads in zip(embed_dims, num_heads): self.stages.append( TransformerBlock(dim, heads) ) def forward(self, x): features = [] for stage in self.stages: x = stage(x) features.append(x) return features ``` 该代码展示了MS-Former中多尺度编码器的基本结构,有助于理解论文中提出的模型设计思路。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

请站在我身后

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值