U-net学习笔记

目录

前言

U-net简介

U-net网络架构理解

输入与输出说明

下采样

上采样以及输出

U-net的特点

谷歌Colab复现基于U-Net的眼底图像血管分割

1.环境配置

 2.数据获取及其处理

3.代码框架

3.1 数据预处理:

3.2 数据增强:

 3.3 U-net网络代码:

3.4 代码运行结果

总结

前言

        本文只是记录自己的学习过程,并不是面向技术向的硬核文章。

U-net简介

         U-net首见于这篇论文U-Net: Convolutional Networks for Biomedical,距今7年,算是比较老的模型了,但是它的引用量突破了四万,由此看来,它的重要性不言而喻。U-net初始论文的标题就告诉我们,它是一个用于医学图像分割的卷积神经网络。在医学领域,如果仅仅对图像进行分类,这是不够的。医生在对病人进行医疗诊断时,需要综合更多的信息来得出病情的判断。

        所以,U-net做的事就是,在已有图像类别的基础上,对图像进行进一步分类---即像素这一级别的分类(图像分割),定位每个像素的类别,使图像中解剖或病理结构的变化更加清晰,最后输出根据像素点的类别而分割好的图像。

U-net网络架构理解

论文中的U-net网络架构如下:

# 上图图标以及操作讲解
蓝色图标:3*3 卷积操作 pad = 0 stride = 1  + ReLU激活函数(稀疏激活、收敛速度快、梯度计算简单)

红色图标:2*2 最大池化操作 pad = 0 stride = 2 下采样
# 每次下采样步骤后通道数翻倍,即64--->128--->256--->512--->1024  共四步

## 反卷积
反卷积本质还是卷积,并不是卷积的逆操作,而且也无法还原成原来的图像,只能还原图像的大小
绿色图标:up-Conv 上采样,每次上采样图像大小翻倍,通道数减半

青色图标:Conv 1*1 2个1×1的卷积核把64个特征通道变成2个,也就是最后的388×388×2,这里就是一个二分类的操作,
把图片分成背景和目标两个类别。

灰色图标:对左边下采样得到的特征图进行裁剪复制,与右边对应通道数的上采样输出特征图合并。

说明:在卷积过程中,我们会丢失边缘像素信息,此外,而上采样并不能恢复图像,只能恢复大小,所以需要复制
左边的特征图然后再和右边的特征图合并,弥补缺失的信息,使得最终结果更加准确。

#同样,上采样也是有四步,特点是,图像大小翻倍,通道数减半

        可以看到图中U-net的网络结构呈U形,左半部分我们称之为编码器,右半部分我们称之为解码器。编码器将图片不断压缩,分辨率变得越来越低,解码器将图像分辨率不断还原,分辨率逐步升高。下面我们针对上图,对网络操作流程进行说明。

输入与输出说明

        我们的输入图像大小为572,572单通道,输出为388,388二通道。图像分割不应该原图和输出图片大小一样吗?实质上,U-net这边做的处理是,根据预先设置的输出图像大小,然后对输入图像进行镜像填充。具体怎么做的呢?

        如上图所示,预测的分割区域在黄色区域,蓝色区域作为输入,提供更多的局部信息,但实质上我们是没有那么大的蓝色区域的,所以缺失的数据就以镜像的方式被填充了。这样的操作会带来图像重叠问题,即某一图像的周围可能会和另一张图片重叠。因此作者在卷积时只使用有效部分。

下采样

        网络左半部分为下采样,一共有四步。

#input 572*572*1 ---(卷积)--->570*570*64(ReLu激活)---(卷积)--->568*568*64(ReLu)激活
下采样
step1:568*568*64---(max pooling)--->284*284*128---(卷积)--->282*282*128(ReLu激活)---
(卷积)--->280*280*128(ReLu激活)
之后的三步与step1类似

上采样以及输出

        网络右半部分为上采样,同样有四步,与左半部分不同的是,它每次进行上采样采用的都是反卷积(pytorch总的transpose函数即可实现),而且每次都会引入裁剪后高分辨率的图像信息。

step1:28*28*1024---(反卷积)--->56*56*512+左半部分64*64*512---(裁剪合并)=56*56*1024
 ---(卷积)--->54*54*512(ReLu激活)---(卷积)--->52*52*512(ReLu激活)
 接下来三步与上面一步类似
 
 1*1Conv:
 388*388*64--->388*388*2 将前景和背景分割出来,变成一个二分类问题

U-net的特点

<
### 关于 U-Net 的实现代码、教程及配置方法 #### 1. **U-Net 模型简介** U-Net 是一种用于生物医学图像分割的经典卷积神经网络架构,其设计特点是通过编码器-解码器结构来捕捉高分辨率的空间细节和上下文信息[^1]。 --- #### 2. **U-Net 的开源项目与安装指南** 对于希望快速入门并运行 U-Net 实验的开发者来说,可以参考官方或社区维护的开源项目。例如,引用中的资源提到一个基于 PyTorch 的 U-Net 开源项目地址为: [https://gitcode.com/gh_mirrors/un/u-net](https://gitcode.com/gh_mirrors/un/u-net)[^2] 该项目提供了详细的安装说明以及使用指南,适合新手学习如何搭建实验环境。具体步骤通常包括依赖库安装(如 `PyTorch` 和其他必要的 Python 库)、数据准备以及模型训练脚本执行。 --- #### 3. **U-Net 的 CPU 版本实现** 如果硬件条件有限(比如仅配备普通笔记本电脑),可以选择在 CPU 上运行简化版的 U-Net 实验。虽然速度可能较慢,但对于理解基本原理已经足够。以下是来自引用的一个简单示例[^3]: ```python import torch import torch.nn as nn class UNet(nn.Module): def __init__(self, input_channels=1, output_channels=1): super(UNet, self).__init__() # 编码器部分 (Downsampling) self.encoder = nn.Sequential( nn.Conv2d(input_channels, 64, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(64, 128, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) # 解码器部分 (Upsampling) self.decoder = nn.Sequential( nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True), nn.Conv2d(128, 64, kernel_size=3, padding=1), nn.ReLU(), nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True), nn.Conv2d(64, output_channels, kernel_size=3, padding=1), nn.Sigmoid() ) def forward(self, x): encoded = self.encoder(x) decoded = self.decoder(encoded) return decoded ``` 上述代码展示了一个基础版本的 U-Net 架构,适用于小型数据集测试。注意该实现未包含跳跃连接(skip connection),这是为了降低复杂度以便初学者更容易理解和调试。 --- #### 4. **常见问题及其解决办法** 在实际操作过程中可能会遇到一些困难,例如: - **环境配置耗时较长**:建议提前查阅目标框架(如 TensorFlow 或 PyTorch)的文档,确保所有依赖项正确安装。 - **性能瓶颈**:当本地设备无法满足需求时,可考虑借用高性能计算资源(如 GPU 工作站或云平台实例)。此外,也可以调整批量大小(batch size)或其他超参数以适应现有硬件能力。 --- #### 5. **进一步优化方向** 随着对 U-Net 理解加深,还可以探索更多高级功能和技术改进措施,例如更换更高效的数据增强策略、引入注意力机制提升关键区域识别精度等。未来工作还涉及将标准公开数据集替换为自己领域内的特定样本集合,并针对实际情况微调各项设置参数。 --- ###
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值