TED-net: Convolution-free T2T-ViT-based Encoder-decoder Dilation network 阅读笔记(小关键点记录)

笔者的研究方向即为低剂量CT去噪,这篇论文可以说是transformer在该领域的一次重要应用,欢迎大家在评论区一起讨论学习。


本文提出了一种基于无卷积T2T-ViT的编码器-解码器膨胀网络(TED-net),以丰富LDCT去噪算法家族。该模型没有卷积块,由一个带唯一transformer的对称编解码块组成。

PS:前置论文可以参考笔者的前两篇阅读笔记,包括:ViT、T2T-ViT。

介绍

作者在这部分并没有展示他的创新点,只是针对前人的优势和不足之处做了分析说明,在此不再赘述。

方法

        本文提出的模型如图所示,在编码部分,该模型包括Tokenization block(词语切分块)、Transformer Block(TB)、Cyclic Shift Block(循环位移块,CSB)、带膨胀的T2T块(T2TD)和不带膨胀的T2T块(T2T)。解码器部分包括T2T、T2TD、逆循环移位块(ICSB)和解码块。

 Tokenize block使用unfold(展开)从图像补丁中提取token,而DeToken block应用Fold将token转换回图像。TB包括一个典型的transformer块。CSB使用循环移位操作,ICSB使用逆循环移位。T2T合并了tokens到token块以增强tokenization,而T2TD在T2T tokenization过程中包括了扩展。最后的图像是通过从带噪的输入图像中减去模型残差输出得到的。

2.1噪声模型

        去噪分析论文都有的对去噪过程建立数学模型,没什么好说的,值得一提的是,本文提出的

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值