- 博客(1)
- 收藏
- 关注
原创 pytorch中backward函数gradient参数
但我们并非是求向量y 对 向量x的导数,而是求 y = x*2对于不同y时的自变量x的导数,所以是求y1对x1的导数,y2 对 x2的导数,y3对x3的导数。所以我们需要使用gradient参数指定这么一个矩阵,让tensor保存我们需要的梯度。2、y = x*2 那么y = tensor([y1,y2,y3])如果y是标量,y.backward( ) 很好理解无需参数。那么x.grad = J 乘 gradient =1、设x = tensor([x1,x2,x3])
2023-05-23 16:59:12
460
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人