pytorch-12-多分类实战

本文介绍了在PyTorch中进行多分类任务的实战,分别展示了使用底层函数和高阶API的操作。在使用底层函数时,通过训练结果分析发现损失未下降可能源于权重初始化问题,启用合适的权重初始化方法后,损失有所改善。接着,文章提供了使用高阶API的代码实现,简化了操作流程。

1、使用低层函数的操作

在这里插入图片描述
在这里插入图片描述
实战代码

import  torch
import  torch.nn as nn
import  torch.nn.functional as F
import  torch.optim as optim
from    torchvision import datasets, transforms


batch_size=200
learning_rate=0.01
epochs=10

train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./MNIST_data', train=True, download=True,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ])),
    batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(
    datasets.MNIST('./MNIST_data', train=False, transform=transforms.Compose([
        transforms.ToTensor(),
        transforms.Normalize((0.1307,), (0.3081,))
    ])),
    batch_size=batch_size, shuffle=True)



w1, b1 = torch.randn(200, 784, requires_grad=True),\
         torch.zeros(200, requires_grad=True)
w2, b2 = torch.randn(200, 200, requires_grad=True),\
         torch.zeros(200, requires_grad=True)
w3, b3 = torch.randn(10, 200, requires_grad=True),\
         torch.zeros(10, requires_grad=True)

# torch.nn.init.kaiming_normal_(w1)
# torch.nn.init.kaiming_normal_(w2)
# torch.nn.init.kaiming_normal_(w3)


def forward(x):
    x = x@w1.t() + b1
    x = F.relu(x)
    x = x@w2.t() + b2
    x = F.relu(x)
    x = x@w3.t() + b3
    x = F.relu(x)
    return x



optimizer = optim.SGD([w1, b1, w2, b2, w3, b3], lr=learning_rate)
criteon = nn.CrossEntropyLoss()

for epoch in range(epochs):

    for batch_idx, (data, target) in enumerate(train_loader):
        data = data.view(-1, 28*28)

        logits = forward(data)
        loss = criteon(logits, target)

        optimizer.zero_grad()
        loss.backward()
        # print(w1.grad.norm(), w2.grad.norm())
        optimizer.step()

        if batch_idx % 100 == 0:
            print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                epoch, batch_idx * len(data), len(train_loader.dataset),
                       100. * batch_idx / len(train_loader), loss.item()))


    test_loss = 0
    correct = 0
    for data, target in test_loader:
        data = data.view(-1, 28 * 28)
        logits = forward(data)
        test_loss += criteon(logits, target).item()

        pred = logits.data.max(1)[1]
        correct += pred.eq(target.data).sum()

    test_loss /= len(test_loader.dataset)
    print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
        test_loss, correct, len(test_loader.dataset),
        100. * correct / len(test_loader.dataset)))

训练结果
在这里插入图片描述
Note:由训练结果可以看出来,损失一直没有下降,导致损失不下降的原因有多方面,比如:

  • 梯度离散
  • learning rate过大
  • 权重初始值不合适

这里已经使用relu激活函数了,不易发生梯度离散,而且学习率选择了1e-3(0.001)也不算大,所以应该是权重w的初始值设置的有问题,接下来我们取消初始化的注释,使用的是何凯明的初始化,效果如下:
在这里插入图片描述
在这里插入图片描述

损失有所变化,初始化很重要,有时候算法跑不好,不是想法不好,而是初始化的方案有问题。

2、使用高阶API实现

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

PyTorch是一个流行的深度学习框架,常用于计算机视觉和自然语言处理任务。迁移学习(Transfer Learning)是利用预训练模型在一个大任务(比如ImageNet中的大量图像分类)上获得的知识,将其应用到一个小规模但相关的任务中的一种方法,例如精灵(如宝可梦)的分类。 在PyTorch中,你可以使用已经训练好的卷积神经网络(CNN),如ResNet、VGG或Inception等,作为基础模型来进行迁移学习。对于宝可梦精灵分类,首先你需要: 1. **准备数据集**:收集并整理包含宝可梦图片的数据集,确保它们被正确地标注为各个类别。 2. **加载预训练模型**:从 torchvision.models 中选择一个适合的模型,如resnet18、resnet50等,并设置其参数为不可训练(`.eval()`)以保持前几层不变。 3. **特征提取**:将模型应用于每个输入图像,仅取输出的特征向量(通常是`model.fc`之前的最后一层)而不是最终的分类结果。 4. **添加新层**:由于原始模型的最后一层可能不适合新的分类任务,通常会添加一层或多层全连接层(Linear Layer)以及适当的激活函数。 5. **微调**:如果希望进一步提升性能,可以选择部分或全部冻结的预训练层进行微调(`.train()`),调整这些层的权重以适应新任务。 6. **训练和评估**:使用训练集对模型进行训练,并用验证集监控性能,然后在测试集上评估模型的实际效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值