
Torch.Optim
文章平均质量分 57
alien丿明天
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch 按层调整学习率
Pytorch 按层调整学习率 第一步:先获取每一层的一个layer_scale layer_scales = list(layer_decay ** (num_layers - i) for i in range(num_layers + 1)) 第二步:把原创 2022-04-08 19:31:15 · 1556 阅读 · 1 评论 -
torch.optim.Optimizer
torch.optim.Optimizer base class 理解torch.optim.Optimizer参数理解.params.defaults类的属性类的方法1.Optimizer.state_dict2.Optimizer.load_state_dict3. Optimizer.zero_grad3. Optimizer.add_param_group(self, param_group) torch.optim.Optimizer torch.optim.Optimizer(params, d原创 2022-04-08 10:15:19 · 1928 阅读 · 0 评论