上次写代码时,backbone encoder是用了别人代码,另外又添加了多分支多layer作为task decoder。
但是开始犯了个很致命的错误,在pytorch设置优化器时,仅使用了:
optimizer = torch.optim.Adam(model.parameters(), lr=args.lr, weight_decay=args.weight_decay)
这样实际上只优化了部分模型,应该这样设置:
optimizer = torch.optim
PyTorch优化器设置陷阱
上次写代码时,backbone encoder是用了别人代码,另外又添加了多分支多layer作为task decoder。
但是开始犯了个很致命的错误,在pytorch设置优化器时,仅使用了:
optimizer = torch.optim.Adam(model.parameters(), lr=args.lr, weight_decay=args.weight_decay)
这样实际上只优化了部分模型,应该这样设置:
optimizer = torch.optim
502
1344

被折叠的 条评论
为什么被折叠?