- 博客(38)
- 收藏
- 关注
原创 DATA AUGMENTATION GENERATIVE ADVERSARIALNETWORKS
本文的主要贡献是:1. 使用一种新颖的生成对抗网络来学习数据增强的表示和过程。2. 从单个新的数据点演示真实的数据增强样本。3. DAGAN在低数据状态下增强标准分类器的应用,表明所有任务的泛化性能有了显著的改进。4. DAGAN在元学习领域的应用,表现出比所有先前的通用元学习模型更好的性能。结果表明,Omniglot 案例中的性能超过了现有技术 0.5%,EMNIST 案例中的性能为 1.8%。5.通过学习网络为任何给定测试用例生成最显着的增强示例,有效地对匹配网络进行一次性增强。
2025-03-24 22:00:40
626
原创 Tumor Detection, Segmentation and Classification Challenge on Automated 3D Breast Ultrasound
Tumor Detection, Segmentation and Classification Challenge on Automated 3D Breast Ultrasound: The TDSC-ABUS ChallengeGongning Luoa, Mingwang Xua, Hongyu Chenb, Xinjie Lianga, Xing Taoc,d, Dong Nic,d,e, Hyunsu Jeongf, Chulhong Kimf, Raphael Stockg,h, Michae
2025-01-31 23:14:10
702
原创 CoCa: Contrastive Captioners are Image-Text Foundation Models
本文介绍了对比描述生成器(CoCa),这是一种极简的设计,可以与(contrastive loss and captioning loss)对比损失和图像描述损失一起预训练图像-文本编码器-解码器基础模型,从而从 CLIP 等对比方法和 SimVLM 等生成方法中假设模型能力。与所有解码器层都关注编码器输出的标准编码器-解码器转换器相比,CoCa 在解码器层的前半部分省略了交叉注意来编码单模态文本表示,并级联剩余的解码器层,这些解码器层交叉关注图像编码器用于多模态图像-文本表示。
2024-11-10 21:10:47
860
原创 LDM_latent-diffusion环境配置&踩坑记录
windows主机,单张显卡(暂时还没搞定gpu训练)anaconda/mini conda均可。这样子,初步可以用来推理的环境就差不多了;
2024-10-16 21:36:47
992
2
原创 ChatCAD&ChatCAD+:Towards a Universal and Reliable Interactive CAD using LLMs
该框架通过总结自然语言中的信息,利用llm的医学知识和推理来增强CAD网络输出,如诊断、病变分割和报告生成。生成的报告质量更高,可以提高基于视觉的 CAD 模型的性能。在胸部 X 射线中,与最先进的模型相比,使用 ChatGPT 的 LLM 将诊断性能提高了 16.42 个百分点,而 GPT-3 提供了 15.00 个百分点的 F1 分数改进。然后,LLM将检索到的知识作为参考,提供可靠的医疗建议。通过所提出的检索模块从临床数据库中检索在语义上与LLM生成的报告相似的Top-k报告(cf.图3。
2024-09-20 15:16:27
1467
原创 MEDICAL SAM 2: SEGMENT MEDICAL IMAGES AS VIDEO VIA SEGMENT ANYTHING MODEL 2
在本文中,理解下来的提到的主要贡献文本除了原本3D数据可以直接使用SAM2的模型直接实现之外,对于没有明确时序关系的2D数据进行了模型结构的修改以及调整,实现了ONE-PROMPT SEGMENTATION。2. 我们采用一种新颖的医学图像视频理念,它启发我们设计了一个独特的管道,解锁 MedSAM-2 中的一次性分割能力,这是以前的方法几乎无法实现的特征。4. 我们在 15 个不同的基准测试中评估 MedSAM-2,包括 26 个不同的任务,其中模型实现了卓越的性能。
2024-08-23 15:30:17
1966
2
原创 Image Fine-grained Inpainting
对于训练,给定原始图像 Igt,随机位置的二值图像掩码 M(已知像素的值为 0,1 表示未知像素)。对于训练,我们使用分辨率256×256的图像,最大孔径128×128,如[7]、[8]所示。我们的生成图像修复框架在具有挑战性的数据集上实现了令人信服的视觉结果(如图 1 所示)。为了进一步提高生成图像的质量,引入了局部分支上的鉴别器特征匹配,动态最小化了合成补丁和真实补丁之间的中间特征的相似性。• 我们提出了几何对齐约束来补充基于像素的 VGG 特征匹配损失的不足,这将结果限制在更合理的语义空间位置。
2024-07-24 22:36:55
312
原创 StructureFlow: Image Inpainting via Structure-aware Appearance Flow
为了验证我们的外观流的有效性,我们训练了一个模型,而不使用纹理生成器中的外观流块。可以看出,我们的StructureFlow比没有外观流操作训练的模型具有更好的性能,这意味着我们的外观流可以帮助纹理生成并提高模型的性能。为这项消融研究训练了两个模型:在外观流的扭曲操作中使用双线性采样训练的模型和不使用采样正确性损失训练的模型。在第二阶段,基于重构的结构,设计了一个使用外观流的纹理生成器来生成图像细节。•为了简化外观流的优化,我们建议使用高斯采样而不是双线性采样,并引入了一种新的采样正确性损失。
2024-07-10 19:51:03
1011
原创 MedM2G: Unifying Medical Multi-Modal Generation via Cross-Guided Diffusion with Visual Invariant
医学生成模型因其高质量的样本生成能力而得到认可,加速了医疗应用的快速增长。在本文中,我们提出了 MedM2G,这是一种医学多模态生成框架,在一个统一的模型中对齐、提取和生成医疗多模态的关键创新。(3) 与使用大量匹配良好的跨模态数据库预训练的通用多模态生成模型 [52, 56] 不同,缺乏医学跨模态配对训练数据集难以重新训练医学多模态的生成能力。关键的创新集中于通过提出的视觉不变保存对每个医疗模态进行有效的临床知识提取,以及提出的潜在多流交叉引导扩散框架,有效地增强多模态生成的跨模态交互。
2024-07-05 14:48:54
1895
原创 Generating Diverse Structure for Image Inpainting With Hierarchical VQ-VAE
我们提出了一个用于不同修复的两阶段模型,其中第一阶段生成多个具有不同结构的粗结果,第二阶段通过增加纹理分别细化每个粗结果。在CelebA-HQ、Places2和ImageNet数据集上的实验结果表明,我们的方法不仅增强了修复解决方案的多样性,而且提高了生成的多幅图像的视觉质量。计算结构特征上的注意力得分可以对结构信息的精确长程相关性进行建模,从而提高合成纹理和生成结构之间的一致性。,将第一部分中生成的comp图像作为输入,得到了生成图像comp对于这个编码器的结构特征以及纹理特征。
2024-07-01 21:29:54
905
原创 High-Fidelity Image Inpainting with GAN Inversion
平均潜在代码是从丰富的随机样本中获得的,这些样本将编码器输出限制为平均样式,因此有损了编码器的输出分布的多样性。大量的定量和定性比较证明了我们的模型比以前的方法的优越性,并且可以便捷地支持来自不可见域的图像或掩码的语义一致补全。为了重建忠实和逼真的图像,设计了一个简单而有效的软更新平均潜在模块来捕获更多样化的域内模式,这些模式为大型损坏合成高保真纹理。为了解决这个问题,在本文中,我们设计了一种新的用于图像修复的 GAN 反演模型,称为。论文展示的修复效果,分别为大面积遮盖的复原,人脸,以及域外人脸的效果。
2024-06-29 17:41:11
875
原创 ADVERSARIAL INPAINTING OF MEDICAL IMAGE MODALITIES
为了实现这一目标,提出了一个对抗性框架,该框架结合了两个基于补丁的鉴别器网络和额外的非对抗性损失。未来,我们计划扩展所提出的框架以包括一个分割网络,以绕过在训练期间手动定位缺失区域的需要。最后,与其他传统方法相比,将彻底研究内绘结果在进一步的临床后处理任务中的性能验证。所提出的框架结合了两个基于补丁的鉴别器网络,该网络具有额外的风格和感知损失,以真实详细和上下文一致的方式修复缺失的信息。所提出的框架在两种不同的医学模式上定性和定量地优于其他自然图像修复技术。因此,图像的缺失部分是原始图像大小的 1/16。
2024-06-19 22:55:17
407
原创 SEMSUP: Semantic Supervision for Simple and Scalable Zero-shot Generalization
此外,它在看不见的类上的表现优于基于提示的方法,在明显较小的数据(1/30)上进行预训练,同时在 CLIP 和 T5 上高出 10 个点以上。我们在两个文本数据集(20NG、RCV1)和两个图像数据集(CIFAR100、AWA2)上评估 SEMSUP,用于多类和多标签分类,以及三个泛化场景(看不见的描述、看不见的类和看不见的超类)。(1)用于使用多个类级描述的采样策略,显着提高了单个类描述的性能,与实例级监督(在 CIFAR 上)相比,需要的注释示例减少多达 500 倍。
2024-06-17 22:12:22
650
原创 Analyzing and Improving the Image Quality of StyleGAN
因此,我们决定重新评估StyleGAN的网络设计,并搜索一个架构,该架构在没有渐进增长的情况下产生高质量的图像。而进一步,作者将调制器的位置调整了,原本的在卷积层后对A+B进行的调制层移动到了卷积之前,将仿射变换A直接进行调制+解调,加入权重之后直接输入卷积层,同时解调层功能上替代了归一化层。而作者提供的变体为,从c可以看到,相较于原本的模块,去除了均值的部分,文中描述为:仅对标准偏差进行归一化和调制就足够了(即不需要平均值)。对于本文的其余部分,我们使用跳过生成器和残差鉴别器,而无需渐进式增长。
2024-06-12 22:30:38
981
原创 自然语言模型词表示/Transformer
字节对编码 (Byte Pair Encoding, BPE): 一种单词分割算法 从所有字母组成的单词表开始 将频率最高的n-gram变成新的词表单词。4.1/Term-Term矩阵(词共现矩阵):表示一个词出现在另一个词周围的次数,通过窗口大小控制周围的范围。3/分布式表示:过对大规模文本语料的学习,为每一个词建立一个稠密向量表示 word2vec。4.2/Term-document矩阵:表示一个词出现在某文档中的次数。其他词向量模型:GloVe等。1/同义词/上位词表示。2/One-hot表示。
2024-06-05 22:49:50
215
原创 Image Inpainting for Irregular Holes Using Partial Convolutions
现有的基于深度学习的图像修复方法在损坏的图像上使用标准卷积网络,使用以有效像素为条件的卷积滤波器响应以及掩码孔中的替代值(通常是平均值)。在论文中提到的部分卷积(partial convolution)操作中,卷积运算仅在掩码 𝑀 为1的像素上进行,即只考虑有效的像素。这样,随着网络的逐层传递,掩码 𝑀 会逐渐更新,最终使得所有的掩码区域都被有效像素所替代,从而完成图像的修复任务。2.使用具有不同空值初始化的卷积层U-net架构的结果,如图e,f,分别初始化均值为127.5即255的一半,周围图像的均值?
2024-05-26 11:19:04
289
原创 Enhancing Visual Continual Learning with Language-Guided Supervision
同时,由于分类器中的语义目标是在没有任何先验知识的情况下随机初始化的,然后在单个任务中进行优化,因此它很难捕获所有任务之间的语义相关性。而在本文中,作者提出的观点为,传统的独热编码缺失语义信息,由于对于n分类问题来说,每一个类别都由一个n维的向量构成,向量之间相互独立。进行了广泛的实验以系统地检查我们的方法。因此,训练目的从,基于one-hot的类别的匹配,变为将图像空间的特征空间无限接近语义信息得到的特征空间。原始的分类器的特征空间是基于原始模型训练的类别信息,而且特征空间由输入的图像的多个类别占用了。
2024-05-23 17:46:02
611
原创 ipA-MedGAN: INPAINTING OF ARBITRARILY REGIONS IN MEDICAL MODALITIES
所以对于核磁的医学图像存在失真或者变形的情况。后续对MR图像的分割,分类任务会受到失真图像的限制,因此我们提出了一个新的医学图像修复框架,ipA-MedGAN.这个框架在作者之前提出的 ip-MedGAN上的改进版本。它可以看作是将输入图像划分为大小为70 × 70像素的重叠小块,对每个小块进行分类,并对最终结果的分类分数进行平均。实际上同样是对整幅图像进行判定,只不过不同于全局判别器,Patch判别器是将图像分为多个小块,挨个判别。同时也区别于局部判别器,局部判别器只对 遮挡 部分进行判别计算。
2024-05-08 21:48:36
212
翻译 Resolution-robust Large Mask Inpainting with Fourier Convolutions
5.计算x^ 与x’ 之间的损失函数,实际损失函数包含多个内容可以通过论文做确认,进行梯度计算,调整参数。全局信息由局部的3*3的卷积以及全局的FFT2d等傅里叶变换相关的操作后合并得到的。其中,局部信息就是由初始拆解的局部3*3的卷积以及全局3*3的卷积获得。本文中提出的方案可以在修复大片区域,同时对于被复杂的结构也有好的修复效果。最终得到的信息由拆分得到的局部信息以及全局信息合并而成。其中 将FFC详细拆解可以分为局部的卷积以及全局的卷积。4.将输出的图像进行上采样。重复1~5的步骤进行迭代。
2024-05-07 23:37:01
62
翻译 Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations
我们使用来自编码器的深层和浅层的 CNN 特征来分别表示输入图像的结构和纹理。为此,结构和纹理填充的 CNN 特征相互受益,以在所有特征级别表示图像内容。在基准数据集上的实验表明,所提出的方法可以有效地恢复结构和纹理,并优于最先进的方法。-在基准数据集上的广泛实验表明,所提出的修复方法在去除结构和纹理特征不一致的模糊和伪影方面的有效性。学习浅层的CNN特征来表示纹理,深层的特征表示结构。3/均衡的特征在不同的 CNN 特征级别包含一致的结构和纹理特征,并通过跳跃连接补充解码器以生成输出图像。
2024-03-28 22:29:23
124
1
翻译 Contextual Residual Aggregation for Ultra High-Resolution Image Inpainting
近年来,数据驱动的图像修复方法取得了令人鼓舞的进展,影响了基本的图像编辑任务,如对象去除和损坏的图像修复。此外,减轻了对高分辨率训练数据集的需求。在我们的实验中,我们在分辨率为512×512的小图像上训练模型,并对高分辨率图像进行推理,实现了令人信服的修复质量。1/对原始图像进行下采样到512的倍数,并且计算原始高分辨率图像与伪分高分辨率的图像(由低分辨率的图像上采样得到)图像的差异。论文中也提到,可训练部分只有框中的生成器的部分,以下为生成器的网络流程,包括更新生成器以及判别器的细节逻辑。
2024-03-26 22:54:55
101
翻译 RePaint: Inpainting using Denoising Diffusion Probabilistic Models
在这项工作中,我们提出了 RePaint:一种基于去噪扩散概率模型 (DDPM) 的修复方法,适用于甚至极端掩码。为了条件生成过程,我们只使用给定的图像信息对未屏蔽区域进行采样来改变反向扩散迭代。由于该技术不修改或调节原始DDPM网络本身,因此该模型为任何修复形式生成高质量的、多样化的输出图像。由于这个过程是随机的,我们可以对多个不同的输出进行采样。RePaint 修改了标准的去噪过程,以根据给定的图像内容为条件。在每一步中,我们从输入中采样已知区域(顶部)和来自 DDPM 输出(底部)的需要修复部分。
2024-03-13 21:54:59
616
1
原创 Image Inpainting with Cascaded Modulation GAN and Object-Aware Training
我们提出了级联调制 GAN (CM-GAN),这是一种新的网络设计,由一个具有傅里叶卷积块的编码器组成,该编码器从具有孔的输入图像中提取多尺度特征表示,以及一个双流解码器,在每个尺度级别具有新颖的级联全局空间调制块。图 2:左:CM-GAN 架构,它由一个具有 FFC 块的编码器和一个具有级联全局调制块 (GB) 和后续空间调制块 (SB) 的双流解码器组成。通过在编码器的各个尺度级别上应用FFC blocks,可以使网络能够更好地传播早期阶段的特征信息,并解决生成无效特征的问题。是图像修复的关键问题。
2024-03-10 23:23:38
909
1
翻译 Global and Local Attention-Based Free-Form Image Inpainting
在本文中,我们提出了两种新的注意力机制,即基于掩码剪枝的全局注意模块和全局局部注意模块来获得特征之间的全局依赖信息和局部相似性信息,以获得细化的结果。我们提出了两个新的注意模块,即基于掩码修剪的全局注意模块,该模块使用掩码修剪机制计算全局级别(即特征映射)的特征之间的依赖关系,以及一个全局和局部注意模块,用于计算局部级别(即图像补丁)的全局依赖关系和局部相似性。粗糙网络计算特征之间的全局相关性,并使用所提出的MPGA模块修剪掩模特征,生成粗略或粗略的修复图像。然后,它使用修剪后的面片来重建最终的特征图。
2024-03-05 22:25:16
92
1
翻译 A Style-Based Generator Architecture for Generative Adversarial Networks
在每次卷积之后,先加入高斯噪声,然后再计算非线性。这里的“A”代表学习到的仿射变换,而“B”将学习到的每通道比例因子应用于噪声输入。新的架构导致了高级属性(例如,在人脸训练中的姿态和身份)的自动学习和无监督分离,以及生成图像中的随机变化(例如,雀斑、头发),并且它能够实现直观的、特定规模的合成控制。新的生成器在传统的分布质量指标方面提升了现有技术水平,明显改善了插值属性,并且更好地解构了变化的潜在因素。论文中,设计了一个新的生成器,通过在每个卷积层中加入可调整的风格,以及噪声,从而得到不同风格的生成结果。
2024-01-30 21:18:26
157
1
原创 C++部署yolov5,libtorch-gpu版本+cuda9.2+cudnn多版本管理踩坑记录
我用的是不知道那个版本的export.py的,但是默认转换时使用的为cpu,所以这里有个坑,需要修改一下device的内容,改成gpu,这样子的生成的torchscript版本才可以在libtorch-gpu上调用,不然就会报RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!一个常见的方法是使用。,但是考虑到和训练用的torch版本匹配。
2024-01-05 15:28:06
1280
1
转载 历史libtorch下载路径(自用)
原网址链接:libtorch-cxx11-abi-shared-with-deps-1.4.0+cu92.zip : https://download.pytorch.org/libtorch/cu92/libtorch-cxx11-abi-shared-with-deps-1.4.0%2Bcu92.zip。
2024-01-03 17:43:11
505
1
原创 Generative Adversarial Nets
嗯,说起生成网络,这几天,NLP方面的话,包括GPT为代表的文本生成类模型在通用的任务上表现不错,而目前以SD为主干的图像生成网络也是比较火热的。而虽然我们并不能直观的看到,但是深度网络可能会学习到不同自然图像中各个像素点位的独立的以及不同像素点中的关联信息,从而完成目前CV中的分类,分割,检测等任务。而图像生成,则是网络通过学习,获取在256*256*3的随机噪声,或者是mask,或者是其他被遮掩的图像中,各个像素点位上可能的像素值。嗯,本文是笔者对GAN网络的浅显的理解,有个人局限性,仅供分享,参考。
2024-01-02 20:33:55
940
翻译 Cross-level Contrastive Learning and Consistency Constraint for Medical Image Segmentation
这篇论文的核心就是从全图像和局部斑块中获得的特征或预测之间应用对比学习或一致性约束,从而鼓励网络在半监督的医学图像分割中学习局部特征。2/与现有的基于图像、batch和点的对比学习算法相比,新方法能够探索更复杂的相似性线索,即全局与局部补丁表示之间的关系特征。3/同时对全局/局部特征进行预测,然后获取同一个patch的分割预测结果,进行一致性评价。
2023-12-27 17:05:06
140
2
翻译 LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical Imaging
整体理解下来,将大量无标签的数据通过两种变化,转换成了有监督的数据,然后对生成的特征进行self-supervised learning,去指导特征提取器的更新,其中关键点在于,提取的特征之间如何构造新的方法——二阶图匹配,去进行训练,提取出来的特征,全局,局部信息如何利用起来,同时也涉及到了梯度传播的问题。- 与LVM-Med相比较的其他SSL方法(如VicRegl、Twin-Barlon、Dino等)也是从在ImageNet-1K上预训练的ResNet-50初始化的,并用默认设置训练了100个周期。
2023-12-21 22:20:12
263
原创 generative-inpainting-pytorch-master 推理bug
问题在于,torch内部forward和backward需要一一对应,但是这此处,源代码中匹配不一致...generative-inpainting-pytorch-master 推理bug。
2023-12-15 09:50:19
1143
翻译 ARHNet: Adaptive Region Harmonization forLesion-aware Augmentation toImproveSegmentation Performance
在本文中,我们解决了由数据增强造成的前景强度和风格不匹配的问题,从而可以生成可信的图像。由于我们没有成对的真实图像和模拟图像,所以我们通过拍摄真实图像和引入前景差异来用于训练图像协调网络(ARHNet)来创建模拟图像。最后,我们训练了一个基于ARHNet生成的真实图像和合成图像混合的分割模型,以证明其对提高下游分割性能的有效性。我们的前景协调框架(ARHNet),它由四个组件组成:前景强度扰动单元、边界提取器、生成器G和鉴别器d。
2023-11-08 21:58:30
64
1
翻译 Nodule Synthesis and Selection for AugmentingChest X-ray Nodule Detection
我们提出了一个基于基于绘制的数据增强(DA)框架,包括结节合成阶段和结节选择阶段,以合成具有可信结节的CXR图像,以促进后续的结节检测任务。由于不是所有合成的CXR图像都能有效地增强数据,我们引入了结节选择阶段,从合成的CXR图像中识别有效的结节,以有效地增加结节检测训练数据的多样性。增强胸x线结节检测的结节合成与选择。
2023-10-24 21:43:07
64
翻译 Evolutionary Generative Adversarial Networks
最后,根据“适者生存”的原则,将表现不佳的后代剔除,保留剩余的表现良好的后代(即generator),用于进一步的训练。在本文中,我们提出了一种新的GAN框架,称为进化生成对抗网络(E-GAN),用于稳定的GAN训练和提高生成性能。现有的GANs使用预定义的对抗目标函数交替训练生成器和鉴别器,我们使用不同的对抗训练目标作为突变操作,并进化出一群生成器来适应环境(即鉴别器)。我们还利用一种评估机制来衡量生成的样本的质量和多样性,这样只有性能良好的生成器(s)被保留并用于进一步的训练。进化生成的对抗性网络。
2023-10-17 21:59:38
182
翻译 Label-Free Liver Tumor Segmentation
我们的关键新颖性包括(i)不与血管碰撞的位置,(ii)具有放大高斯噪声的纹理,以及(iii)由扭曲的椭球体产生的形状。此外,模型训练我们的合成肿瘤实现骰子相似系数(DSC)的59.81%的分割真正的肝脏肿瘤,而人工智能训练真正的肿瘤获得DSC的57.63%(图2),表明合成肿瘤有可能被用作替代真正的肿瘤在训练人工智能模型。此外,我们的合成肿瘤可以自动产生许多小的(甚至是微小的)合成肿瘤的例子,并有潜力提高检测小肝肿瘤的成功率,这对于检测癌症的早期阶段至关重要。
2023-10-09 21:41:19
214
1
翻译 Medical SAM Adapter: Adapting SegmentAnything Model for Medical Image Segmentation
为解决医疗图像中三维图像连续层相关性的问题,我们提出了一种新的适应方法,启发图像到视频的适应,并进行了一些修改。对于给定的深度为D的三维样本,我们将D x N x L发送给空间分支中的多头注意,其中N为嵌入数,L为嵌入的长度。我们还根据SAM的原始实现使用了一个屏蔽的自动编码器(MAE),它屏蔽了给定的输入嵌入部分,并训练模型来重建它们。在本文中,我们提出了Med SAM适配器,而不是微调MAM适配器,它通过一种简单而有效的自适应技术,将医学特定领域的知识集成到分割模型中。使用prompt训练。
2023-10-09 20:55:48
625
1
翻译 Segment Anything in Medical Images
这些资料来源包括https://www.cancerimagingarchive.net/的癌症成像档案(TCIA),https://www.kaggle.com/的Kaggle,https://grand-challenge.org/challenges/的大挑战,https://www.nature.com/sdata/的科学数据,https://codalab.lisn的CodaLab。实验结果表明,MedSAM的性能始终优于最先进的(SOTA)分割基础模型,同时达到与专业模型相同,甚至超过的性能。
2023-10-07 20:56:04
758
2
翻译 nnU-Net: Self-adapting Frameworkfor U-Net-Based Medical Image Segmentation
它驻留在一组三个相对简单的U-Net模型上,它们只包含对原始的U-Net [6]的微小修改。在这些步骤中,网络的性能可以获得或分别丢失:预处理(例如重采样和标准化)、训练(例如损失、优化器设置和数据增强)、推理(例如基于补丁的策略和跨测试时间增强和模型的集成)和潜在的后处理(例如,如果适用,强制执行单个连接组件)。就像最初的U-Net一样,我们在编码器中的池化层和解码器中的转置卷积操作之间使用了两个普通的卷积层。阶段1(左):一个3D U-Net处理下采样的数据,所得到的分割图被上采样到原始分辨率。
2023-10-07 20:17:56
240
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人