如果y是标量,y.backward( ) 很好理解无需参数。
如果y是向量,y.backward() 需要一个gradient参数,作用如下:
1、设x = tensor([x1,x2,x3])
2、y = x*2 那么y = tensor([y1,y2,y3])
如果直接用y对x求导,按照向量对向量的求导,得到的是一个雅可比矩阵:
J=
如果y是标量,y.backward( ) 很好理解无需参数。
如果y是向量,y.backward() 需要一个gradient参数,作用如下:
1、设x = tensor([x1,x2,x3])
2、y = x*2 那么y = tensor([y1,y2,y3])
如果直接用y对x求导,按照向量对向量的求导,得到的是一个雅可比矩阵:
J=