pytorch学习--nn.Module、数据增强

本文详细介绍了PyTorch中nn.Module的使用,包括常见层如Linear、ReLU、Conv2d等,以及如何自定义网络层和管理参数。同时,探讨了数据增强方法如Flip、Rotate和Scale,并提供了训练与测试模式切换的技巧。
部署运行你感兴趣的模型镜像

nn.Module

包含许多现成的层,如
▪ Linear
▪ ReLU
▪ Sigmoid
▪ Conv2d
▪ ConvTransposed2d
▪ Dropout
▪ etc

Container
self.net = nn.Sequential(
)

方便管理参数

list(net.parameters())[1] #第0层的bias

save and load

torch.save(net.state_dict(), ‘ckpt.mdl’)
net.load_state_dict(torch.load(‘ckpt.mdl’))

train and test

在Dropout等网络中,train与test表现不同,模块可以方便地进行切换

net.train()		#train
net.eval()		#test

自定义类

将2维打平操作
在这里插入图片描述

class MyLinear(nn.Module):

    def __init__(self, inp, outp):
        super(MyLinear, self).__init__()

        # requires_grad = True
        self.w = nn.Parameter(torch.randn(outp, inp))
        self.b = nn.Parameter(torch.randn(outp))

    def forward(self, x):
        x = x @ self.w.t() + self.b
        return x

自定义类时,需要将参数加入到parameter中

数据增强

▪ Flip 翻转

train_loader = torch.utils.data.DataLoader(
    datasets.MNIST('../data', train=True, download=True,
                   transform=transforms.Compose([
                       transforms.RandomHorizontalFlip(),
                       transforms.RandomVerticalFlip(),
                       ]))

▪ Rotate 旋转

transforms.RandomRotation(15),		#最大+/- 15。
transforms.RandomRotation([90, 180, 270]),	#共有4种操作

Scale 缩放

transforms.Resize([32, 32]),  #参数为调整之后大小,注意其是一个参数,【】

▪ Random Move & Crop 旋转加裁剪

transforms.RandomRotation(15),
transforms.RandomCrop([28, 28]),

▪ GAN

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值