这是去年发表在TMI上的一篇CT重建的研究工作内容,个人认为这篇文章背后的工作点在于数据一致性层的使用,关于保真项在CT重建上的使用,从2021年开始比较多见,推断是真的有效,而不是paperly。文中提到压缩感知的应用,但由于我能力水平极其有限,没看出来该项工作有严格意义上关于压缩感知的使用。
首先来看前人工作中的痛点和本文拟解决问题:
基于深度学习的重建方法分为三类:图像到图像、数据到图像和一个或两个域中的迭代映射。对于图像到图像重建方法,不需要直接访问原始测量值,这意味着图像重建不直接依赖于制造协议。经过训练的神经网络无需额外输入即可将差图像映射到好图像。示例性网络包括卷积神经网络(CNN)、深卷积神经网络(FBPConvNet)、基于小波变换的U-net、残差编码器-解码器CNN(RED-CNN)、denseNet反卷积网络(DD-net)等。这些方法具有快速成像和易于部署的优点。然而,他们从损坏的输入中预测输出,而不检查原始测量与基于网络输出的测量之间的数据一致性。另一方面,数据到图像重建方法将测量数据直接映射到重建图像。例如,AUTOMAP利用完全卷积网络架构将MRI测量值传输到图像。然而,由于计算量大,在高维测量的情况下很难实现。iRadonMap方法被提出用于将CT测量值转换为图像。然而,这些深层网络容易受到各种不稳定性扰动的影响。与这些相对简单的前馈网络相比,受迭代重建机制的启发,深度重建网络可以通过展开迭代算法来设计,例如,基于专家评估的学习重建网络(LEARN)、流形和图形综合卷积网络、交替方向乘子法(ADMM)网络等,它们改善了各种子采样因子的图像质量。由于这种展开方法总是需要数据来校正中间结果,因此测量变换是必要的。由于训练后的网络作为非标准正则化子,它还与迭代重建相结合,称为深图像域迭代重建。有几个例子,如原始-对偶混合梯度(PDHG)算法、momentum-Net和深层BCD-net。虽然这些网络在某些情况下取得了很好的性能,但由于其巨大的计算开销,很难在实践中实现。此外,学习到的网络通常在图像上工作,与传统迭代算法一样,迭代可能会影响性能。因此,在超稀疏视图的情况下,这些现有网络架构无法提供良好的重建质量(例如,小于100个视图,60个视图)。
虽然目前为止在深度学习上做了很多努力,但良好的稀疏视图CT图像质量与100多个视图相关。显然,在投影视图数量远少于100的情况下提供类似的成像性能是一个当代挑战。本文主要展示在我们选定的应用程序中,深度学习如何将视图数减少到60个,而不会显著降低图像质量。(文章这么说我真的会谢,仅用60个视图还能显著保持图像质量。试问对应领域的研究学者遇到这样一句话,谁看谁不迷糊呢?)
为了突破上述技术障碍,我们采用混合策略设计了一个用于稀疏视图CT重建的集成网络。众所周知,解析重建速度快,但对数据质量敏感。为了从受损数据中恢复真实特征,引入基础信号的先验信息进行迭代重建。由于经典先验甚至理想稀疏性和低秩的限制,迭代重建在具有挑战性的情况下不能令人满意。最近,基于学习的深度先验重建取得了巨大的成功,但仍然无法进行超稀疏视图CT重建。因此,我们有动机