笔者的研究方向即为低剂量CT去噪,这篇论文可以说是transformer在该领域的一次重要应用,欢迎大家在评论区一起讨论学习。
本文提出了一种基于无卷积T2T-ViT的编码器-解码器膨胀网络(TED-net),以丰富LDCT去噪算法家族。该模型没有卷积块,由一个带唯一transformer的对称编解码块组成。
PS:前置论文可以参考笔者的前两篇阅读笔记,包括:ViT、T2T-ViT。
介绍
作者在这部分并没有展示他的创新点,只是针对前人的优势和不足之处做了分析说明,在此不再赘述。
方法
本文提出的模型如图所示,在编码部分,该模型包括Tokenization block(词语切分块)、Transformer Block(TB)、Cyclic Shift Block(循环位移块,CSB)、带膨胀的T2T块(T2TD)和不带膨胀的T2T块(T2T)。解码器部分包括T2T、T2TD、逆循环移位块(ICSB)和解码块。
Tokenize block使用unfold(展开)从图像补丁中提取token,而DeToken block应用Fold将token转换回图像。TB包括一个典型的transformer块。CSB使用循环移位操作,ICSB使用逆循环移位。T2T合并了tokens到token块以增强tokenization,而T2TD在T2T tokenization过程中包括了扩展。最后的图像是通过从带噪的输入图像中减去模型残差输出得到的。
2.1噪声模型
去噪分析论文都有的对去噪过程建立数学模型,没什么好说的,值得一提的是,本文提出的