【pytorch】踩坑PyTorch中的dropout

作者:雷杰
链接:https://www.zhihu.com/question/67209417/answer/302434279
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


刚踩的坑, 差点就哭出来了TT. — 我明明加了一百个dropout, 为什么结果一点都没变
使用F.dropout ( nn.functional.dropout )的时候需要设置它的training这个状态参数与模型整体的一致.
比如:

Class DropoutFC(nn.Module):
    def __init__(self):
        super(DropoutFC, self).__init__()
        self.fc = nn.Linear(100,20)

    def forward(self, input):
        out = self.fc(input)
        out = F.dropout(out, p=0.5)
        return out

Net = DropoutFC()
Net.train()
# train the Net

这段代码中的F.dropout实际上是没有任何用的, 因为它的training状态一直是默认值False. 由于F.dropout只是相当于引用的一个外部函数, 模型整体的training状态变化也不会引起F.dropout这个函数的training状态发生变化. 所以, 此处的out = F.dropout(out) 就是 out = out.
正确的使用方法如下, 将模型整体的training状态参数传入dropout函数

Class DropoutFC(nn.Module):
   def __init__(self):
       super(DropoutFC, self).__init__()
       self.fc = nn.Linear(100,20)

   def forward(self, input):
       out = self.fc(input)
       out = F.dropout(out, p=0.5, training=self.training)
       return out

Net = DropoutFC()
Net.train()
# train the Net

或者直接使用nn.Dropout() (nn.Dropout()实际上是对F.dropout的一个包装, 也将self.training传入了)

Class DropoutFC(nn.Module):
  def __init__(self):
      super(DropoutFC, self).__init__()
      self.fc = nn.Linear(100,20)
      self.dropout = nn.Dropout(p=0.5)

  def forward(self, input):
      out = self.fc(input)
      out = self.dropout(out)
      return out
Net = DropoutFC()
Net.train()
# train the Net
### PyTorchDropout的作用与使用方法 #### Dropout的核心作用 Dropout是一种有效的正则化技术,旨在通过随机失活神经元的方式减少模型的复杂度并降低过拟合的风险。在训练过程中,每个神经元都有一定的概率被临时移除,从而迫使网络学习更加鲁棒的特征表示[^1]。 #### Dropout的工作机制 在PyTorch中实现Dropout时,主要依赖于`nn.Dropout`模块。该模块会在前向传播期间按照指定的概率`p`随机将输入张量中的部分元素设置为零。这种操作模拟了神经元的随机失活效果。值得注意的是,在测试阶段(即调用`model.eval()`之后),Dropout会被自动关闭,以确保完整的网络结构参与预测[^2]。 以下是具体的代码示例展示如何在PyTorch中定义和应用Dropout: ```python import torch import torch.nn as nn # 创建一个简单的线性层,并在其后加入Dropout层 class SimpleModel(nn.Module): def __init__(self, input_size, hidden_size, output_size, drop_prob=0.5): super(SimpleModel, self).__init__() self.fc1 = nn.Linear(input_size, hidden_size) self.relu = nn.ReLU() self.dropout = nn.Dropout(drop_prob) # 定义Dropout层 self.fc2 = nn.Linear(hidden_size, output_size) def forward(self, x): out = self.fc1(x) out = self.relu(out) out = self.dropout(out) # 应用Dropout out = self.fc2(out) return out # 初始化模型、输入数据及其他参数 input_tensor = torch.randn(32, 100) # 批次大小为32,输入维度为100 model = SimpleModel(input_size=100, hidden_size=50, output_size=10, drop_prob=0.3) output = model(input_tensor) # 前向传播计算 print(output.shape) # 输出形状应为[32, 10] ``` 上述代码片段展示了如何构建一个带有Dropout功能的小型全连接神经网络。其中设置了隐藏层后的Dropout比例为0.3,意味着每次迭代中有30%的神经元可能被禁用[^4]。 #### 实际应用场景下的注意事项 虽然Dropout能够有效缓解过拟合现象,但在实际部署时仍需注意一些细节: - **仅限训练模式**:正如前面所提及,Dropout只应在训练阶段启用;切换到评估模式下(`model.eval()`)会停用此特性。 - **调整超参**:合适的失活率取决于具体任务需求,一般推荐范围介于0.2至0.5之间[^3]。 --- ###
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值