模型定义和训练的一些注意事项

定义了一个动态跟随输入张量的形状调整输入输出通道数的模块,这种做法是有问题的。

错误做法如下:

class ARM(nn.Module):
    def __init__(self, *args, **kwargs):
        super(ARM, self).__init__()
        # 先初始化为None,在第一次forward时初始化
        self.in_chan = None
        self.out_chan = None
        self.conv = None
        self.conv_atten = None
        self.bn_atten = None
        self.sigmoid_atten = nn.Sigmoid()  # 这个不需要通道数,可以先初始化

    def _init_layers(self, x):
        # 根据输入x的通道数动态初始化各层
        self.in_chan = x.size(1)  # 获取输入通道数
        self.out_chan = x.size(1)  # 输出通道数与输入相同

        # 初始化各层
        self.conv = ConvBNReLU(self.in_chan, self.out_chan, ks=3, stride=1, padding=1)
        self.conv_atten = nn.Conv2d(self.out_chan, self.out_chan, kernel_size=1, bias=False)
        self.bn_atten = nn.BatchNorm2d(self.out_chan)

        # 初始化权重
        self.init_weight()

    def init_weight(self):
        if self.conv is not None:
            for ly in [self.conv, self.conv_atten]:
                if hasattr(ly, 'weight'):
                    nn.init.kaiming_normal_(ly.weight, a=1)
            if hasattr(self.bn_atten, 'weight'):
                nn.init.constant_(self.bn_atten.weight, 0)
                nn.init.constant_(self.bn_atten.bias, 0)

    def forward(self, x):
        if self.conv is None:  # 第一次forward时初始化各层
            self._init_layers(x)

        feat = self.conv(x)
        atten = F.avg_pool2d(feat, feat.size()[2:])
        atten = self.conv_atten(atten)
        atten = self.bn_atten(atten)
        atten = self.sigmoid_atten(atten)
        out = torch.mul(feat, atten)
        return out
class YourNet():
	def init_(self):
	    self.module = ARM()
	def forward(x):
	    x = self.module(x)

这样的话,训练可以跑通,但是self.module不会得到保存,也就是训练后的模型权重保存不全,正确做法是一定要初始化你想要保存到权重文件中的模块

正确的一种可选方式:(但不建议,有些画蛇添足,不如老老实实再定义模块的初始化函数中确定好输入输出维度)

class YourModel(nn.Module):
    def __init__(self):
        super(YourModel, self).__init__()
        self.relaxARM1 = ARM()
        self.relaxARM2 = ARM()
        self.relaxARM3 = ARM()
        self.relaxARM4 = ARM()
        self.relaxARM5 = ARM()
        
        # 初始化所有 ARM(假设输入通道数为 3)
        self._initialize_arms(input_channels=3)

    def _initialize_arms(self, input_channels):
        dummy_input = torch.randn(1, input_channels, 32, 32)  # 假设输入尺寸为 32x32
        for name, module in self.named_children():
            if name.startswith("relaxARM"):
                module(dummy_input)  # 触发初始化

    def forward(self, x):
        # 正常调用各 ARM
        x = self.relaxARM1(x)
        x = self.relaxARM2(x)
        # ... 其他调用
        return x
<think>我们正在使用PyTorch定义神经网络模型并进行训练。根据引用内容,我们可以参考以下步骤:1.定义神经网络模型:通过继承nn.Module类,在__init__中定义层,在forward中定义前向传播。2.训练模型:包括数据准备、损失函数优化器的选择、训练循环(前向传播、计算损失、反向传播、优化参数)。3.在训练循环中,注意将模型设置为训练模式(model.train()),在测试时设置为评估模式(model.eval())。4.保存加载模型:使用torch.savetorch.load。根据引用[1]:Deep Learningwith PyTorch: A60Minute Blitz,这是一个快速入门教程。引用[2][3][4][5]提供了一些关于模型定义保存加载以及训练评估的细节。我们将按照以下步骤进行:步骤1:定义神经网络模型步骤2:准备数据(这里假设已有数据集,实际中需要加载数据)步骤3:定义损失函数优化器步骤4:训练模型(包括多个epoch的循环)步骤5:评估模型(在测试集上)下面我们用一个简单的例子(如LeNet-5类似的网络,用于图像分类)来展示整个过程。注意:由于用户没有指定具体任务,我们使用MNIST手写数字识别作为示例。</think>### PyTorch 模型定义训练教程 以下是使用 PyTorch 定义神经网络模型并进行训练的完整流程: #### 1. 模型定义 通过继承 `nn.Module` 类定义模型结构: ```python import torch import torch.nn as nn import torch.nn.functional as F class CNN(nn.Module): def __init__(self): super(CNN, self).__init__() # 卷积层 (1 input channel, 6 output channels, 3x3 kernel) self.conv1 = nn.Conv2d(1, 6, 3) # 引用[5] self.pool = nn.MaxPool2d(2, 2) # 2x2 最大池化 self.conv2 = nn.Conv2d(6, 16, 4) # 连接层 self.fc1 = nn.Linear(16*5*5, 120) # 根据特征图尺寸调整 self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) # 10个输出类别 def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 16*5*5) # 展平特征图 x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x ``` #### 2. 训练准备 ```python # 初始化模型 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model = CNN().to(device) # 损失函数优化器 criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9) # 加载数据集 (示例使用MNIST) from torchvision import datasets, transforms transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,)) ]) train_set = datasets.MNIST('data', train=True, download=True, transform=transform) train_loader = torch.utils.data.DataLoader(train_set, batch_size=32, shuffle=True) ``` #### 3. 训练循环 ```python model.train() # 设置训练模式[^3] for epoch in range(10): # 训练10轮 running_loss = 0.0 for i, (inputs, labels) in enumerate(train_loader): inputs, labels = inputs.to(device), labels.to(device) # 梯度清零 optimizer.zero_grad() # 前向传播 + 反向传播 + 优化 outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() # 打印统计信息 running_loss += loss.item() if i % 200 == 199: # 每200批次打印一次 print(f'Epoch {epoch+1}, Batch {i+1}: loss {running_loss/200:.3f}') running_loss = 0.0 ``` #### 4. 模型评估 ```python test_set = datasets.MNIST('data', train=False, transform=transform) test_loader = torch.utils.data.DataLoader(test_set, batch_size=32, shuffle=False) model.eval() # 设置评估模式[^3][^4] correct = 0 total = 0 with torch.no_grad(): # 禁用梯度计算[^4] for inputs, labels in test_loader: inputs, labels = inputs.to(device), labels.to(device) outputs = model(inputs) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print(f'测试准确率: {100 * correct / total:.2f}%') ``` #### 5. 模型保存与加载 ```python # 保存模型 torch.save(model.state_dict(), 'mnist_cnn.pth') # 引用[2][^3] # 加载模型 new_model = CNN().to(device) new_model.load_state_dict(torch.load('mnist_cnn.pth')) new_model.eval() # 加载后务必设置评估模式[^3] ``` ### 关键注意事项 1. **模式切换**:训练前用 `model.train()`,评估前用 `model.eval()`,这对DropoutBatchNorm层至关重要[^3][^4] 2. **设备迁移**:使用 `.to(device)` 确保数据模型在同一设备上 3. **梯度管理**: - 训练时用 `optimizer.zero_grad()` 清除历史梯度 - 评估时用 `with torch.no_grad()` 禁用梯度计算[^4] 4. **参数保存**:推荐保存 `state_dict()` 而非整个模型,便于跨架构加载[^2][^3] ### 官方学习资源 建议参考 PyTorch 官方教程: - [Deep Learning with PyTorch: A 60 Minute Blitz](https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html)[^1] - [Learning PyTorch with Examples](https://pytorch.org/tutorials/beginner/pytorch_with_examples.html)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值