一、autograd—自动求导系统
torch.autograd.backward()
torch.autograd.backward()
是PyTorch中用于计算梯度的函数。以下是对该函数的参数的解释:
功能:自动求取梯度
• tensors: 用于求导的张量,如 loss
• retain_graph : 保存计算图
• create_graph : 创建导数计算图,用于高阶求导
• grad_tensors:多梯度权重
tensors
:需要计算梯度的张量或张量的列表。这些张量的requires_grad
属性必须为True
。grad_tensors
:可选参数,用于指定关于tensor
的外部梯度。默认为None
,表示使用默认的梯度为1。retain_graph
:可选参数,用于指定是否保留计算图以供后续计算。默认为None
,表示根据需要自动释放计算图。create_graph
:可选参数,用于指定是否创建计算图以支持高阶梯度计算。默认为False
,表示不创建计算图。
该函数的作用是计算tensors
中张量的梯度,使用链式法则将梯度传播到叶子结点。它会自动构建计算图,并使用反向传播算法计算梯度。
当y = (x + w) * (w + 1),a &