笔记小结:Python自动微分

本文均基于torch实现,用于个人复习记录学习历程,适用于初学者

一个简单的例子

先创建一个简单的tensor

import torch

x = torch.arange(4.0)
print(x) 

在我们计算𝑦关于𝑥的梯度之前,需要一个地方来存储梯度。重要的是,我们不会在每次对一个参数求导时都分配新的内存。 因为我们经常会成千上万次地更新相同的参数,每次都分配新的内存可能很快就会将内存耗尽。 注意,一个标量函数关于向量𝑥的梯度是向量,并且与𝑥具有相同的形状。

x.requires_grad_(True)
x.grad #输出查看,默认值为None

给出函数y

y = 2 * torch.dot(x,x)
y #输出为tensor(28., grad_fn=<MulBackward0>)

x是一个长度为4的向量,计算xx的点积,得到了我们赋值给y的标量输出。

接下来,通过调用反向传播函数来自动计算y关于x每个分量的梯度,并打印这些梯度。

y.backward()
x.grad #输出tensor([ 0.,  4.,  8., 12.])

y.backward()是通过调用反向传播函数来自动计算y关于x的每个分量的梯度,这些梯度(也就是导数值)是存在x.grad中的

函数y = 2x^{_{T}}x关于x的导数为4x,故而y关于x的梯度为tensor([ 0., 4., 8., 12.])

注意:在下一次使用反向传播求梯度时要将梯度清零,否则梯度将会持续累积

x.grad.zero_() #梯度清零

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值