
超分辨率重建学习笔记
weixin_46684838
这个作者很懒,什么都没留下…
展开
-
4.16:优化器和学习率调整策略
checkpoint要存的东西如下:但为啥TransENet中还存了loss,查看所有.pt文件 optimizer中存的参数是啥选择优化器和设置学习率调整策略的直接实现那为什么要重写optimizer和scheduler呢,如下所示:def make_optimizer(args, my_model): trainable = filter(lambda x: x.requires_grad, my_model.parameters()) if args.optimi..原创 2022-04-16 22:43:39 · 736 阅读 · 0 评论 -
4.15:微调(finetune) FSRCNN反卷积层
为啥要重新定义卷基层def default_conv(in_channels, out_channels, kernel_size, bias=True): return nn.Conv2d( in_channels, out_channels, kernel_size, padding=(kernel_size//2), bias=bias)finetune FSRCNN1.先建立模型,同时导入之前上采样训练得到的参数2.冻结 FSRCNN的映射层,设置requires_grad=False..原创 2022-04-16 15:37:56 · 268 阅读 · 0 评论