文章目录 pytorch: grad can be implicitly created only for scalar outputs 原理: 出现这个原因是由于在backword时,没有计算loss导致,需要计算loss;或者在backword时,传入参考,作为loss计算的标准。 读取gradient 针对具体变量 针对model中的某些层 pytorch: grad can be implicitly created only for scalar outputs 原理: 出现这个原因是由于在backword时,没有计算loss导致,需要计算loss;或者在backword时,传入参考,作为loss计算的标准。 z.backward(torch.ones_like(