上次写代码时,backbone encoder是用了别人代码,另外又添加了多分支多layer作为task decoder。
但是开始犯了个很致命的错误,在pytorch设置优化器时,仅使用了:
optimizer = torch.optim.Adam(model.parameters(), lr=args.lr, weight_decay=args.weight_decay)
这样实际上只优化了部分模型,应该这样设置:
optimizer = torch
上次写代码时,backbone encoder是用了别人代码,另外又添加了多分支多layer作为task decoder。
但是开始犯了个很致命的错误,在pytorch设置优化器时,仅使用了:
optimizer = torch.optim.Adam(model.parameters(), lr=args.lr, weight_decay=args.weight_decay)
这样实际上只优化了部分模型,应该这样设置:
optimizer = torch