- 博客(2)
- 收藏
- 关注
原创 4.16:优化器和学习率调整策略
checkpoint要存的东西如下:但为啥TransENet中还存了loss,查看所有.pt文件 optimizer中存的参数是啥 选择优化器和设置学习率调整策略的直接实现 那为什么要重写optimizer和scheduler呢,如下所示: def make_optimizer(args, my_model): trainable = filter(lambda x: x.requires_grad, my_model.parameters()) if args.optimi..
2022-04-16 22:43:39
730
原创 4.15:微调(finetune) FSRCNN反卷积层
为啥要重新定义卷基层def default_conv(in_channels, out_channels, kernel_size, bias=True): return nn.Conv2d( in_channels, out_channels, kernel_size, padding=(kernel_size//2), bias=bias) finetune FSRCNN 1.先建立模型,同时导入之前上采样训练得到的参数 2.冻结 FSRCNN的映射层,设置requires_grad=False ..
2022-04-16 15:37:56
263
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人