论文题目:LIT-Former: Linking In-plane and Through-plane Transformers for Simultaneous CT Image Denoising and Deblurring
提出了一种新颖的深度学习模型,用于同时进行CT图像的去噪和去模糊处理。
论文地址:arxiv
项目地址:github
项目已经复现,暂无更新打算,代码里存在错误,如果复现有困难可以评论
摘要
这篇论文研究了3D低剂量计算机断层扫描(CT)成像技术。尽管已经开发了多种深度学习方法,但它们通常专注于2D图像,并且分别对低剂量引起的噪声进行去噪和对超分辨率进行去模糊处理。到目前为止,很少有工作同时进行平面内去噪和平面外去模糊,这对于获得辐射更低、成像速度更快的高质量3D CT图像非常重要。对于这项任务,直接训练一个端到端的3D网络是一种直接的方法。然而,这需要更多的训练数据和昂贵的计算成本。在这里,我们提出了一种将平面内和平面外变换器链接起来的方法,用于同时进行平面内去噪和平面外去模糊,称为LIT-Former,它可以有效地协同处理3D CT成像的平面内和平面外子任务,并享受卷积网络和变换器网络的优势。
LIT-Former有两个新颖的设计:高效的多头自注意力模块(eMSM)和高效的卷积前馈网络(eCFN)。首先,eMSM整合了平面内2D自注意力和平面外1D自注意力,以高效地捕获变换器网络核心单元3D自注意力的全局交互。其次,eCFN整合了2D卷积和1D卷积,以同样的方式提取3D卷积的局部信息。结果,所提出的LIT-Former协同了这两个子任务,显著降低了与3D对应物相比的计算复杂性,并实现了快速收敛。在模拟和临床数据集上的广泛实验结果表明,其性能优于现有最先进

最低0.47元/天 解锁文章
1966

被折叠的 条评论
为什么被折叠?



