如何用resnet网络建立基于cifar10的简单分类器

本文介绍如何运用ResNet网络搭建基于CIFAR10数据集的图像分类器。ResNet因其‘shortcut connection’设计在深度学习领域广泛应用,包括图像识别、检测和分割等任务。项目包含data、models和test.py、resnet.py等文件,提供实现细节。

resnet:

esNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域里得到广泛的应用。它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,下面是这个resnet的网络结构:
在这里插入图片描述
详细内容请查看链接


文件夹结构及配置:

在这里插入图片描述
data下存放cifar10数据集
models下存放resnet.py ,simple.py

在这里插入图片描述


test.py:

import torchvision as tv
import torch
import torchvision.transforms as transforms
from torchvision.transforms import ToPILImage
from torchvision import datasets, transforms
import torch.nn as nn
import torch.nn.functional as F
from torch import optim
from models.resnet import ResNet18
from torch.autograd import Variable
def trans_to_cuda(variable):
    if torch.cuda.is_available():
        return variable.cuda()
    else:
        return variable

if __name__ == '__main__':
    #Compose是pytorch中的图像预处理包。一般用Compose把多个步骤整合到一起
    #RandomCrop:在一个随机的位置进行裁剪
    #RandomHorizontalFlip:以0.5的概率水平翻转给定的PIL图像
    #Normalize:对具有平均值和标准差的张量图像进行归一化
    #ToTensor:将PIL图像转换为[0,255]范围内的张量(H * W * C)转换为Tensor。Tensor(C * H * W)范围为[0.0,1.0]
    transform_train = transforms.Compose([
        transforms.RandomCrop(32, padding=4),
        transforms.RandomHorizontalFlip(),
        transforms.ToTensor(),
        transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),])

    transform_test = transforms.Compose([
        transforms.ToTensor(),
        transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
    ])
    #训练数据
    #PyTorch中数据读取的一个重要接口是torch.utils.data.DataLoader,该接口定义在dataloader.py脚本中,只要是用PyTorch来训练模型基本都会用到该接口,
    # 该接口主要用来将自定义的数据读取接口的输出或者PyTorch已有的数据读取接口的输入按照batch size封装成Tensor。(方便产生一个可迭代对象(iterator),
    # 每次输出指定batch_size大小的Tensor)
    #num_workers:从注释可以看出这个参数必须大于等于0,0的话表示数据导入在主进程中进行,其他大于0的数表示通过多个进程来导入数据,可以加快数据导入速度
    trainset = datasets.CIFAR10('./data', train=True, download=True,
                                          transform=transform_train)
    trainloader = torch.utils.data.DataLoader(
        trainset,
        batch_size=4,
        shuffle=True,
        num_workers=2)
    # 加载测试数据
    testset = datasets.CIFAR10('./data', train=False, transform=transform_test)
    testloader = torch.utils.data.DataLoader(
        testset,
        batch_size=4,
        shuffle=False,
        num_workers=2)
    classes = ('plane', 'car', 'bird', 'cat',
               'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
    #建立本地网络
    local_model = ResNet18(name='Local',
                           created_time='2019')
    #选择设备有无GPU
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    local_model = trans_to_cuda(local_model)
    criterion = torch.nn.CrossEntropyLoss()
    optimizer = torch.optim.SGD(local_model.parameters(), lr=0.001, momentum=0.9)
    torch.set_num_threads(8)
    # 训练的数据量为2个epoch,每个epoch为一个循环
    # 每个epoch要训练所有的图片,每训练完成2000张便打印一下训练的效果(loss值) # 训练的数据量为5个epoch,每个epoch为一个循环
    #                             # 每个epoch要训练所有的图片,每训练完成200张便打印一下训练的效果(loss值)
    for epoch in range(2):
        running_loss = 0.0
        for i, data in enumerate(trainloader, 0):
            # 输入数据
            inputs, labels = data  #torch.Size([4, 3, 32, 32]) tensor([8, 2, 7, 0])
            inputs, labels = Variable(inputs), Variable(labels)

            inputs = inputs.to(device)
            labels = labels.to(device)
            # 梯度清零
            optimizer.zero_grad()
            # forward + backward
            outputs = local_model(inputs)  #torch.Size([4, 10])
            # print("*****")
            # print(inputs.shape)
            # print(labels)
            # print(outputs.shape)
            # print("*****")
            loss = criterion(outputs, labels)
            loss.backward()
            
### 实现ResNet网络解决CIFAR-10分类问题 为了使用 PyTorch 实现 ResNet 网络来处理 CIFAR-10 数据集上的图像分类任务,下面提供了完整的 Python 代码示例。此实现基于官方的 PyTorch 库以及 torchvision 提供的支持工具。 #### 加载所需库并定义转换操作 首先导入必要的包,并设定数据预处理的方式: ```python import torch import torch.nn as nn import torch.optim as optim import torchvision import torchvision.transforms as transforms transform = transforms.Compose( [transforms.RandomCrop(32, padding=4), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]) ``` 上述代码设置了随机裁剪、水平翻转等增强手段以提高泛化能力[^2]。 #### 准备训练和测试数据集 接着创建 `DataLoader` 对象以便于后续迭代获取批次样本: ```python trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=2) testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=100, shuffle=False, num_workers=2) ``` 这里指定了批量大小为 128 和 100 分别用于训练集和验证集的数据加载器配置。 #### 定义ResNet模型架构 利用 TorchVision 中已有的 ResNet 结构作为基础框架,调整最后一层以匹配 CIFAR-10 类别的数量: ```python class BasicBlock(nn.Module): expansion = 1 def __init__(self, in_planes, planes, stride=1): super(BasicBlock, self).__init__() # ...省略部分初始化代码... def make_layer(block, planes, blocks, stride=1): downsample = None if stride != 1 or inplanes != block.expansion * planes: downsample = nn.Sequential( conv1x1(inplanes, block.expansion*planes, stride), norm_layer(block.expansion*planes), ) layers = [] layers.append(block(inplanes, planes, stride, downsample)) inplanes = planes * block.expansion for _ in range(1, blocks): layers.append(block(inplanes, planes)) return nn.Sequential(*layers) class ResNet(nn.Module): def __init__(self, block, layers, num_classes=10): super(ResNet, self).__init__() self.inplanes = 64 self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3, bias=False) self.bn1 = nn.BatchNorm2d(64) self.relu = nn.ReLU(inplace=True) self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1) self.layer1 = self._make_layer(block, 64, layers[0]) self.layer2 = self._make_layer(block, 128, layers[1], stride=2) self.layer3 = self._make_layer(block, 256, layers[2], stride=2) self.layer4 = self._make_layer(block, 512, layers[3], stride=2) self.avgpool = nn.AdaptiveAvgPool2d((1, 1)) self.fc = nn.Linear(512 * block.expansion, num_classes) for m in self.modules(): if isinstance(m, nn.Conv2d): nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu') elif isinstance(m, (nn.BatchNorm2d, nn.GroupNorm)): nn.init.constant_(m.weight, 1) nn.init.constant_(m.bias, 0) def forward(self, x): x = self.conv1(x) x = self.bn1(x) x = self.relu(x) x = self.maxpool(x) x = self.layer1(x) x = self.layer2(x) x = self.layer3(x) x = self.layer4(x) x = self.avgpool(x) x = torch.flatten(x, 1) x = self.fc(x) return x model = ResNet(BasicBlock, [2, 2, 2, 2]) # 这里选择了ResNet18结构 device = 'cuda' if torch.cuda.is_available() else 'cpu' model.to(device); ``` 该段代码展示了自定义 ResNet 模型的设计思路及其具体构造方法[^1]。 #### 设置优化算法与损失函数 指定 Adam 优化器及交叉熵损失计算方式: ```python criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=7, gamma=0.1) ``` 这部分实现了常用的梯度下降策略来最小化预测误差。 #### 训练过程 编写循环逻辑完成多次前向传播、反向传播更新权重的过程: ```python for epoch in range(epochs): running_loss = 0.0 model.train() for i, data in enumerate(trainloader, 0): inputs, labels = data[0].to(device), data[1].to(device) optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % 200 == 199: print(f'[Epoch {epoch + 1}, Batch {i + 1}] Loss: %.3f' % (running_loss / 200)) running_loss = 0.0 scheduler.step() ``` 通过以上步骤完成了整个训练流程中的核心环节——参数学习。 #### 测试评估性能 最后,在独立的测试集合上检验最终模型的效果: ```python correct = 0 total = 0 with torch.no_grad(): model.eval() for data in testloader: images, labels = data[0].to(device), data[1].to(device) outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print('Accuracy on the 10000 test images: %d %%' % ( 100 * correct / total)) ``` 这一步骤能够直观反映所建立模型的实际识别精度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值