PytorchCNN项目搭建3--- Cifar10数据集的处理

本文介绍了如何将CIFAR10数据集转换为图片,并利用PyTorch构建数据集。首先从官网下载数据集,然后将训练集和测试集转为图片并保存路径。接着,将图片转换为自定义数据集,实现0-1归一化的图像预处理,以便于CNN模型训练。内容包括数据集划分、图片处理和数据集类的编写。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

整体的代码在我的github上面可以查阅

  • 在实际卷积神经网络关于图像处理的实验中,我们常常直接处理的是图像本身,而不是数据集,所以我们需要学会怎么把图像转换为数据集,然后进行训练,今天的主要内容就是把图像转换为熟悉的数据集~

  • 以Cifar10数据集为例,先从官网下载Cifar10数据集,然后把数据集转换成图片,再把图像转换成数据集。


前期准备:

实验设备说明:

  • 我使用的是远程服务器,pycharm编程
  • 先建立PytorchCNN文件夹,之后的各种文件和文件夹都会在这个文件中

1. Cifar10数据集从官网下载

Cifar10数据集共有60000张图片,其中包含50000张训练图片和10000张测试图片,每张图片为3*32*32(3通道,图片大小为32*32),

打开Cifar10官网,从Vision下载所需的部分,然后可以按照官网的教程学习后面的压缩过程。

在这里插入图片描述
在这里插入图片描述

注意:

  • 因为数据集比较大,所以最好把数据集下载到根目录下面,每次使用的时候直接调用,可以节省空间。我把Cifar10放在了自己的根目录’/DATASET/Cifar10/’
  • 我们可以看到,数据集中共包含6个文件, data_batch_1, data_batch_2, …, data_batch_5, 和 test_batch,每个batch为10000张图片,下面就对每个文件进行处理

2. 把训练集转换为图片, 并把图片路径及名称保存到txt文件中,还把训练集按照一定的概率分为训练数据集和验证数据集

'''seg dataset to pic'''
def Trainset2Pic(cfg):
    classes = ('airplane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
    valid_pic_txt = open(cfg.PARA.cifar10_paths.valid_data_txt, 'w')# 设置为‘w'模式,并且放在最开始,则每次进行时,都会清空重写。
    train_pic_txt = open(cfg.PARA.cifar10_paths.train_data_txt, 'w')
    for i in range(1, 6):
        label_batch = ('A', 'B', 'C', 'D', 'E')
        traindata_file = os.path.join(cfg.PARA.cifar10_paths.original_trainset_path, 'data_batch_' + str(i))
        with open(traindata_file, 'rb') as f:
            train_dict = pkl.load(f,encoding='bytes')  # encoding=bytes ,latin1,train_dict为字典,包括四个标签值:b'batch_label',b'labels',b'data',b'filenames'
            data_train = np.array(train_dict[b'data']).reshape(10000, 3, 32, 32)
            label_train = np.array(train_dict[b'labels'])
            num_val = int(data_train.shape[0]*cfg.PARA.cifar10_paths.validation_rate)#验证集的个数

            val_list = random.sample(list(range(0,int(data_train.shape[0]))), num_val)

        for j in range(10000):
            imgs = data_train[j]
            r = Image.fromarray(imgs[0])
            g = Image.fromarray(imgs[1])
            b = Image.fromarray(imgs[2])
            img 
首先,你需要导入 PyTorch 库: ```python import torch import torch.nn as nn import torch.optim as optim ``` 然后,定义一个继承自 nn.Module 的 CNN-LSTM 模型类,该类由两个子模块组成:一个卷积神经网络和一个长短时记忆网络。 ```python class CNN_LSTM(nn.Module): def __init__(self, num_classes): super(CNN_LSTM, self).__init__() self.cnn = nn.Sequential( nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) self.lstm = nn.LSTM(input_size=64, hidden_size=128, num_layers=2, batch_first=True) self.fc = nn.Linear(128, num_classes) def forward(self, x): x = self.cnn(x) x = x.reshape(x.size(0), -1, 64) out, (h_n, c_n) = self.lstm(x) out = self.fc(out[:, -1, :]) return out ``` 在上面的代码中,我们定义了一个 CNN_LSTM 类,该类包含三个主要的组件: 1. CNN:由三个卷积层和三个最大池化层组成的卷积神经网络,用于从图像中提取特征。 2. LSTM:一个具有两个隐藏层和 128 个隐藏单元的 LSTM,用于学习序列数据之间的依赖关系。 3. 全连接层:将 LSTM 输出转换成模型预测的类别。 最后,我们可以定义模型的超参数并进行训练。 ```python # 定义超参数 num_classes = 10 learning_rate = 0.001 batch_size = 64 num_epochs = 10 # 加载数据集 train_dataset = torchvision.datasets.CIFAR10(root='./data', train=True, transform=transforms.ToTensor(), download=True) train_loader = torch.utils.data.DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True) test_dataset = torchvision.datasets.CIFAR10(root='./data', train=False, transform=transforms.ToTensor()) test_loader = torch.utils.data.DataLoader(dataset=test_dataset, batch_size=batch_size, shuffle=False) # 实例化模型 model = CNN_LSTM(num_classes) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=learning_rate) # 训练模型 total_step = len(train_loader) for epoch in range(num_epochs): for i, (images, labels) in enumerate(train_loader): images = images.permute(0, 2, 3, 1) # 调整图像维度 outputs = model(images) loss = criterion(outputs, labels) optimizer.zero_grad() loss.backward() optimizer.step() if (i+1) % 100 == 0: print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, i+1, total_step, loss.item())) # 测试模型 model.eval() with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: images = images.permute(0, 2, 3, 1) outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print('Accuracy of the model on the test images: {} %'.format(100 * correct / total)) ``` 在上面的代码中,我们首先加载 CIFAR-10 数据集并实例化 CNN-LSTM 模型。然后,我们定义了损失函数和优化器,并在训练过程中进行了模型的优化。最后,我们使用测试数据集对模型进行评估并输出准确率。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值