
PyTorch
_Hothan
默默努力的小白
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PyTorch易混淆知识(持续更新)
学习率 查看当前学习率参数值:optimizer.param_groups[0]['lr'] 训练时更改学习率:torch.optim.lr_scheduler.StepLR(optimizer,step_size=100,gamma=0.99,last_epoch=-1)。详解请看:TensorFlow和PyTorch之学习率衰减 ...原创 2020-02-25 22:37:41 · 206 阅读 · 0 评论 -
TensorFlow VS PyTorch之学习率衰减
在训练神经网络时,有些情况下,需要对学习率进行调整。在这里分别介绍TensorFlow和PyTorch的一种方法。 tf.train.exponential_decay() TensorFlow提供了指数衰减法 tf.train.exponential_decay(learning_rate, global_step=global_step, decay_steps=100,decay_rate=...原创 2020-02-16 21:26:51 · 1154 阅读 · 0 评论