pytorch中torch.Module().eval()有何用处?是否设置之后可以保证模型参数不被更新?

博客探讨了PyTorch中Module.eval()方法的作用,实验证明该方法并不直接阻止模型参数更新,而只是设置训练标志位。即使在eval模式下,模型参数仍会因optimizer.step()而改变。正确的冻结参数方法是设置requires_grad=False。测试用例验证了这一结论,并强调在测试时使用torch.no_grad()以避免生成梯度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关于pytorch Module类eval方法


 最近看一篇论文的源码, 作者为了将某几层bn层冻结, 居然对每个bn层调用了 bn层的eval()方法. 我有所怀疑是否有效, 查看了pytorch对应的源码, 并做了测试, 确定这样做没什么卵用.

只是一个标志位

model.eval()只是设置一个标志位, 同理model.train()也是一样. 查看Module类源码, eval()方法只做了一件事情, 调用self.train(False).

    def eval(self: T) -> T:
        r""" ...
        """
        return self.train(False)

self.train(False)也只做了一件事情, 将自身标志位training置为False, 再递归的将所有子模块的标志位也置为False.

   def train(self: T, mode: bool = True) -> T:
        r""" ...
        """
        self.training = mode
        for module in self.children():
            module.train(mode)
        return self

实测效果

以防万一, 具体测试下看看模型的参数是否会被更新. 设计了四个测试用例:

  1. model.train()模式, 预期结果: 模型的参数被更新, model.layer1的权重更新前后之差, 取绝对值再求和不为0
  2. model.eval()模式, 预期结果: 模型的参数被更新, model.layer1的权重更新前后之差, 取绝对值再求和不为0
  3. 任意模式, 将model.layer1设置
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值