深度学习——梯度

该文介绍了在PyTorch中如何进行梯度计算,包括使用`requires_grad_`来追踪变量以便存储梯度,调用`backward`执行反向传播计算梯度,以及`grad_fn`表示的计算图信息。文章详细阐述了`x.requires_grad_(True)`、`y.backward()`和`grad_fn`的含义及其在深度学习中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、初识梯度

import torch
x = torch.arange(4.0)
print(x)
x.requires_grad_(True)
y = 2 * torch.dot(x, x) #torch.matmul(x, x)
print(y)
y.backward()
print(x.grad)
print(x.grad == 4*x)

输出:

tensor([0., 1., 2., 3.])
tensor(28., grad_fn=<MulBackward0>)
tensor([ 0.,  4.,  8., 12.])
tensor([True, True, True, True])

解释:

1.x.requires_grad_(True)

计算y关于x的梯度之前,需要一个地方来存储梯度,这个函数就是申请储存梯度的地方的,我们使用 x.grad 来访问这个梯度

2.y.backward( )

上述代码调用了反向传播函数来自动计算y关于x每个分量的梯度,这个函数就是用来求导的

3.grad_fn=<MulBackward0>

因为它是隐式构造的计算图,所以它有一个求梯度的函数“grad_fn=<MulBackward0>”存在这个地方告诉你y是由x计算得来的

详细解释:requires_grad,grad_fn,grad的含义及使用

二、梯度详解

课程:这一定是我见过B站最简单讲得最清晰的【梯度】教程!带你快速了解神经网络/激

1.梯度:向量对于每一个方向上的偏微分,它具有方向和大小。梯度的方向代表了函数值越来越大的方向,梯度的长度代表函数变化的趋势。

2.通过梯度搜索极小值:

梯度方向:指从中心往四周,值越来越大的方向

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值