1. require_grad
一个变量是否可学习,可以通过设置变量Variable的require_grad属性。
2. optim
optim包里面的优化器像SGD等的第一个参数,就设置了要学习的参数变量。
3. detach
如果一个变量调用了detach()函数,那么形成该变量结点的图就脱离了,梯度也就不会传递到该变量前面去了。
4. zero_grad
可以计算所有权重weight、偏置bias、变量Varialbe的梯度,对不要学习的权重、偏置或变量的梯度置为零zero_grad。
5. volatile
如果只有前向计算,没有后向梯度计算,设置volatile可以提高效率。
本文介绍了PyTorch中变量的学习机制,包括如何通过设置require_grad属性使变量可学习、使用optim包内的优化器进行参数更新、利用detach方法切断梯度传播、使用zero_grad方法清零梯度以及介绍volatile属性在只进行前向计算时的作用。
1155

被折叠的 条评论
为什么被折叠?



