学习记录——StyleGAN2+SA-UNet

文章介绍了通过StyleGAN2生成图像并结合SA-UNet模型改进视网膜图像分割的方法。作者利用DRIVE数据集训练StyleGAN2,再用生成的图像和SA-UNet进行分割,通过迭代训练提高分割精度。SA-UNet融合了U-Net、SD-UNet和空间注意力块,避免过拟合并采用DropBlock增强模型。工作流程包括用原始数据训练SA-UNet,用StyleGAN2生成图像,再次训练并微调。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SA-UNet for Retinal Vessel improvment using StyleGAN2

  作者提出了一种改进视网膜图像分割的方法,通过创建图像及其相应的分割地图来实现。作者的解决方案包括使用DRIVE数据集1对StylGAN2进行训练,并使用目前在分割DRIVE图像方面取得最先进结果的SA-UNet模型对新合成的图像进行分割。作者使用新生成的图像及其分割结果来重新训练SA-UNet,以获得更好的结果。
  IterNet网络利用U-Net,通过将多个小U-Net连接起来,取得了优势。IterNet的工作方式是首先生成粗糙的分割地图,然后通过在小区域上应用小型U-Net来改进分割地图。

  SA-UNet的主要优势在于它结合了U-Net、SD-UNet和空间注意力块。SA-UNet的架构与U-Net非常相似,但SA-UNet的参数更少,因此训练过程更短,过拟合问题更不容易发生。
  在SA-UNet中,Dropout被DropBlock取代,DropBlock会丢弃感兴趣区域,而不是随机丢弃权重。此外,在任何一对卷积层之间,都有Batch Normalization,如图2所示。此外,SA-UNet还在编码器和解码器之间引入了空间注意力块。
在这里插入图片描述
  数据增强一直是计算机视觉领域的一个重要问题。有许多方法可以进行数据增强,从更简单的方法如图像的传统变换(如翻转、裁剪、旋转等)开始。这些方法在一开始就取得了不错

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Chaoy6565

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值