detach所做的就是,重新声明一个变量,指向原变量的存放位置,但是requires_grad为false.更深入一点的理解是,计算图从detach过的变量这里就断了, 它变成了一个leaf_node.即使之后重新将它的requires_node置为true,它也不会具有梯度.
来源:
博客介绍了detach的作用,它重新声明变量指向原变量存放位置,且requires_grad为false。计算图从detach过的变量处断开,使其成为leaf_node,即便后续将requires_node置为true,该变量也不会具有梯度。
detach所做的就是,重新声明一个变量,指向原变量的存放位置,但是requires_grad为false.更深入一点的理解是,计算图从detach过的变量这里就断了, 它变成了一个leaf_node.即使之后重新将它的requires_node置为true,它也不会具有梯度.
来源:
258
318

被折叠的 条评论
为什么被折叠?