图片分割--UNet

1.网络结构

结构可以分为两部分 左边部分是编码结构,进行特征提取 右边是解码结果,进行特征还原

2.数据集准备

import os.path
from torchvision import transforms
from torch.utils.data import Dataset
from utils import *

#数据归一化
transform = transforms.Compose([
    transforms.ToTensor()
])


class MyDataset(Dataset):
    def __init__(self,path):
        self.path = path
        #获取索引的名字 E:\Pcproject\LB-UNet-main\isic2018\train
        self.name = os.listdir(os.path.join(path,'masks'))

    def __len__(self):
        return len(self.name)

    def __getitem__(self,index):
        segment_name = self.name[index]
        segment_path = os.path.join(self.path,'masks',segment_name)
        #原图地址
        image_path = os.path.join(self.path,'images',segment_name)
        #规范图片的大小尺寸
        segment_image = keep_image_size_open(segment_path)
        image = keep_image_size_open(image_path)
        return transform(image),transform(segment_image)

if __name__=='__main__':
    data = MyDataset('E:/Pcproject/pythonProjectlw/UNet')
    print(data[0][0].shape)
    print(data[0][0].shape)

数据图片规范函数:

from PIL import Image


def keep_image_size_open(path,size = (256,256)):
    #打开图像文件
    img = Image.open(path)
    #取最长边 获取图像尺寸 最长边
    temp = max(img.size)
    #创建空白图像
    mask = Image.new('RGB',(temp,temp),(0,0,0))
    #粘贴原始图像
    mask.paste(img,(0,0))
    #调整图像大小
    mask = mask.resize(size)
    #返回调整后的图像
    return mask

下面是数据的文件位置

数据集是皮肤病理分析的图片

根据unet网络结构可知有三个结构 一部分是conv卷积 一部分是上采样 一部分是下采样

3.定义板块

1.卷积模块

from torch import nn

#卷积板块
class Conv_Block(nn.Module):
    def __init__(self,in_channel,out_channel):
        super(Conv_Block,self).__init__()
        self.layer = nn.Sequential(
            #第一个卷积
            #padding_mode='reflect':填充的是镜像数值 比如第一行第一个数是1 第二行第1列是2 那么在第一行上面填充的值就是以1为中心对称的数字2
            #可以将填充的数值也作为特征 加强特征提取的能力
            nn.Conv2d(in_channel,out_channel,3,1,1,padding_mode='reflect',bias=False),
            nn.BatchNorm2d(out_channel),
            nn.Dropout(0.3),
            nn.LeakyReLU(),
            #第二个卷积
            nn.Conv2d(out_channel, out_channel, 3, 1, 1, padding_mode='reflect', bias=False),
            nn.BatchNorm2d(out_channel),
            nn.Dropout(0.3),
            nn.LeakyReLU()
        )
    def forward(self,x):
        return self.layer(x)

padding_mode='reflect':填充的是镜像数值 比如第一行第一个数是1 第二行第1列是2 那么在第一行上面填充的值就是以1为中心对称的数字2,可以将填充的数值也作为特征 加强特征提取的能力

2.下采样模块

图中的的max pool最大池化进行下采样 但是最大池化没有特征提取 丢特征丢的太多了

#下采样模块
class DownSample(nn.Module):
    def __init__(self,channel):
        super(DownSample,self).__init__()
        self.layer = nn.Sequential(
            nn.Conv2d(channel,channel,3,2,1,padding_mode='reflect',bias=False),
            nn.BatchNorm2d(channel),
            nn.LeakyReLU()
        )
    def forward(self,x):
        return self.layer(x)

如果使用最大池化的化:



class DownSample(nn.Module):
    def __init__(self, channel):
        super(DownSample, self).__init__()
        self.layer = nn.Sequential(
            nn.MaxPool2d(2),  # 使用最大池化替换卷积操作
            nn.BatchNorm2d(channel),
            nn.LeakyReLU()
        )
    
    def forward(self, x):
        return self.layer(x)

3.上采样模块

使用插值法:

from torch.nn import functional as F
class UpSample(nn.Module):
    def __init__(self,channel):
        super(UpSample,self).__init__()
        self.layer = nn.Conv2d(channel,channel//2,1,1)
    def forward(self,x,feature_map):
        up = F.interpolate(x,scale_factor=2,mode='nearest')
        out = self.layer(up)
        return torch.cat((out,feature_map),dim=1)

        super(UpSample, self).__init__() :
        创建一个卷积层self.layer,它将输入通道数从channel减少到channel//2(即通道数减半)。  
        使用1x1的卷积核和步长为1,这意味着卷积层不会改变输入特征图的空间维度(高度和宽度)。  
        但是,它会改变通道数,因为输出通道数被设置为channel//2。  
        self.layer = nn.Conv2d(channel, channel//2, 1, 1)  

       使用F.interpolate函数对输入特征图x进行上采样。  
        scale_factor=2表示将特征图的高度和宽度都放大两倍。  
        mode='nearest'表示使用最近邻插值方法。  
        up = F.interpolate(x, scale_factor=2, mode='nearest')  
        将上采样后的特征图通过之前定义的卷积层self.layer
       这将减少通道数(从原始通道数减半),同时保持(或可能稍微改变,取决于卷积层的权重初始化)空间维度。  
        

根据结构:上采样时需要对上一个特征进行拼接:

       使用torch.cat在通道维度(dim=1)上将输出特征图out和额外的特征图feature_map进行拼接。  
        这意味着输出特征图的通道数将是out的通道数加上feature_map的通道数。

4.定义Unet网络

class UNet(nn.Module):
    def __init__(self):
        super(UNet,self).__init__()
        #下卷积采样
        self.c1 = Conv_Block(3,64)
        self.d1 = DownSample(64)
        self.c2 = Conv_Block(64,128)
        self.d2 = DownSample(128)
        self.c3 = Conv_Block(128,256)
        self.d3 = DownSample(256)
        self.c4 = Conv_Block(256,512)
        self.d4 = DownSample(512)
        self.c5 = Conv_Block(512,1024)
        #上采样
        self.u1 = UpSample(1024)
        self.c6 = Conv_Block(1024,512)
        self.u2 = UpSample(512)
        self.c7 = Conv_Block(512,256)
        self.u3 = UpSample(256)
        self.c8 = Conv_Block(256,128)
        self.u4 = UpSample(128)
        self.c9 = Conv_Block(128,64)
        #输出
        self.out = nn.Conv2d(64,3,3,1,1)
        self.Th = nn.Sigmoid()


    def forward(self,x):
        R1 = self.c1(x)
        R2 = self.c2(self.d1(R1))
        R3 = self.c3(self.d2(R2))
        R4 = self.c4(self.d3(R3))
        R5 = self.c5(self.d4(R4))
        #拼接
        o1 = self.c6(self.u1(R5,R4))
        o2 = self.c7(self.u2(o1, R3))
        o3 = self.c8(self.u3(o2, R2))
        o4 = self.c9(self.u4(o3, R1))

        return self.Th(self.out(o4))


if __name__ == '__main__':
    x = torch.randn(2,3,256,256)
    net = UNet()
    print(net(x).shape)

5.训练代码

import os.path
from torchvision import transforms
from torch.utils.data import Dataset
from utils import *

#数据归一化
transform = transforms.Compose([
    transforms.ToTensor()
])


class MyDataset(Dataset):
    def __init__(self,path):
        self.path = path
        #获取索引的名字 E:\Pcproject\LB-UNet-main\isic2018\train
        self.name = os.listdir(os.path.join(path,'masks'))

    def __len__(self):
        return len(self.name)

    def __getitem__(self,index):
        segment_name = self.name[index]
        segment_path = os.path.join(self.path,'masks',segment_name)
        #原图地址
        image_path = os.path.join(self.path,'images',segment_name)
        #规范图片的大小尺寸
        segment_image = keep_image_size_open(segment_path)
        image = keep_image_size_open(image_path)
        return transform(image),transform(segment_image)

if __name__=='__main__':
    data = MyDataset('E:/Pcproject/pythonProjectlw/UNet')
    print(data[0][0].shape)
    print(data[0][0].shape)

6.结果

如果是第一次运行 第一行结果会是加载失败

下面是文件夹中的内容:

### UNet3D 的代码实现及复现教程 #### 一、环境准备 为了顺利运行UNet3D,需安装必要的库文件。通常情况下,使用`pip install torch torchvision torchnet numpy scipy matplotlib scikit-image tensorboardX`可以满足大部分依赖。 #### 二、理解UNet3D架构 UNet3D是一种用于三维医学影像分析的强大工具[^1]。其结构由编码器(Encoders)和解码器(Decoders)组成,中间通过跳跃连接(Skip Connections),使得低层次的空间信息得以保留至高层次特征提取阶段,从而提高分割精度。 #### 三、数据预处理 针对医疗领域中的CT/MRI扫描得到的体积(Volume)图像作为输入源,需要完成如下操作: - **读取原始DICOM/NIIFTI格式文件**:利用SimpleITK或其他专门处理这类格式的Python包加载体素数据。 - **归一化(Normalization)**:将像素强度值映射到特定区间内(-1,1),有助于加速收敛过程。 - **裁剪(Cropping)/填充(Padding)**:确保所有样本具有相同的尺寸大小;如果目标区域较小,则可适当放大感兴趣区(ROI);反之则缩小范围。 - **增强(Augmentation)**:随机翻转、旋转和平移等手段扩充有限的数据集规模,增加模型泛化能力。 上述步骤完成后,还需考虑如何高效地组织这些经过转换后的多维数组形式的数据供后续训练调用。一种常见做法是创建自定义Dataset子类实例,并重载getitem()方法返回单个批次(batch size=1)内的tensor对象及其对应标签label[]. ```python import os from glob import glob import nibabel as nib import numpy as np import SimpleITK as sitk from skimage.transform import resize from sklearn.model_selection import train_test_split from torch.utils.data import Dataset class CustomImageDataset(Dataset): def __init__(self, image_paths, mask_paths=None, transform=None): self.image_paths = sorted(glob(image_paths)) self.mask_paths = None if not mask_paths else sorted(glob(mask_paths)) self.transforms = [] if not transform else transform def __len__(self): return len(self.image_paths) def _load_nii_file(self,path): img=nib.load(path).get_fdata() return (img-img.mean())/(img.std()+1e-8)#normalization def __getitem__(self,idx): sample={} file_name=os.path.basename(self.image_paths[idx]) img=self._load_nii_file(self.image_paths[idx]) if self.mask_paths is not None: label=sitk.GetArrayFromImage(sitk.ReadImage(self.mask_paths[idx])) assert img.shape==label.shape,f"Mismatch between {file_name}'s shape and its corresponding mask's" for t in self.transforms: img,label=t(img,label) sample['image']=torch.from_numpy(np.expand_dims(img,axis=0)).float().to(device) sample['mask']=torch.from_numpy(label.astype(int)).long().to(device) else: for t in self.transforms: img=t(img) sample['image']=torch.from_numpy(np.expand_dims(img,axis=0)).float().to(device) return sample ``` #### 四、搭建UNet3D网络框架 参照已有文献资料设计适合当前任务特点的具体配置方案。这里给出一个简化版的例子说明主要组件构成方式: ```python import torch.nn.functional as F from torch import nn def conv_block_3d(in_dim,out_dim,act_fn,kernel_size=(3,3,3)): model=nn.Sequential( nn.Conv3d(in_channels=in_dim,out_channels=out_dim,kernel_size=kernel_size,padding='same'), act_fn, ) return model def up_conv_3d(in_dim,out_dim,kernel_size=(2,2,2),stride=(2,2,2)): model=nn.Sequential( nn.Upsample(scale_factor=stride), nn.Conv3d(in_channels=in_dim,out_channels=out_dim,kernel_size=kernel_size,stride=1,padding='valid') ) return model class Unet(nn.Module): def __init__(self,in_channel,n_class): super().__init__() # Encoder part self.enc1=conv_block_3d(in_channel,32,F.relu) self.pool1=nn.MaxPool3d(kernel_size=(2,2,2)) self.enc2=conv_block_3d(32,64,F.relu) self.pool2=nn.MaxPool3d(kernel_size=(2,2,2)) self.enc3=conv_block_3d(64,128,F.relu) self.pool3=nn.MaxPool3d(kernel_size=(2,2,2)) # Bridge self.bridge=conv_block_3d(128,256,F.relu) # Decoder part self.up_transpose1=up_conv_3d(256,128) self.dec1=conv_block_3d(256,128,F.relu) self.up_transpose2=up_conv_3d(128,64) self.dec2=conv_block_3d(128,64,F.relu) self.up_transpose3=up_conv_3d(64,32) self.dec3=conv_block_3d(64,32,F.relu) self.out_layer=nn.Conv3d(in_channels=32,out_channels=n_class,kernel_size=(1,1,1)) def forward(self,x): enc1_out=self.enc1(x) pool1_out=self.pool1(enc1_out) enc2_out=self.enc2(pool1_out) pool2_out=self.pool2(enc2_out) enc3_out=self.enc3(pool2_out) bridge_out=self.bridge(self.pool3(enc3_out)) dec1_in=torch.cat([enc3_out,self.up_transpose1(bridge_out)],dim=1) dec1_out=self.dec1(dec1_in) dec2_in=torch.cat([enc2_out,self.up_transpose2(dec1_out)],dim=1) dec2_out=self.dec2(dec2_in) dec3_in=torch.cat([enc1_out,self.up_transpose3(dec2_out)],dim=1) out=self.dec3(dec3_in) final_output=F.softmax(self.out_layer(out),dim=-1) return final_output ``` #### 五、损失函数与优化算法的选择 考虑到语义分割任务特性,推荐采用Dice Loss或Cross Entropy Loss计算预测结果同真实标记之间的差异程度。与此同时,Adam Optimizer凭借良好的适应性和较快的学习速度成为首选项之一。 #### 六、评估指标设定 除了常规使用的Accuracy之外,Precision、Recall、F-Score以及IoU Intersection over Union均能更全面反映模型性能优劣情况。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值