深度学习-Pytorch 入门学习

本文介绍了如何在PyTorch中使用`requires_grad`属性进行自动求导,包括`torch.randn`创建张量并设置可求导标志,以及`backward`函数用于计算梯度。还提及了`requires_grad`在模型训练中的作用以及检查参数是否加入优化序列的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、pytorch--自动求导

import torch
x = torch.randn(2,3,requires_grad=True)
x.grad

x.grad ----进行求导

b = torch.dot(x,x) -----x 的内积

调用反向传播函数来自动计算y关于每个分量的梯度

b.backward()
x.grad

梯度值代表的是函数在某一点的局部极值,具体来说,它是由函数在该点的方向导数所确定的方向,并且在这个方向上函数的导数取得了最大值。梯度的模定义为沿着该梯度的方向变化最快的速度,也就是函数在该点处沿着该方向变化最快、变化率最大的部分。梯度反映了函数在该点的变化趋势及其最大值所在的方向。在实际应用中,梯度可以用来寻找函数的最大值或最小值,也可以用来描述曲面的倾斜程度

[Pytorch函数].requires_grad固定部分参数进行网络训练_读取模型时requires_grad设置

param.grad、requires_grad、grad_fn、grad/梯度为None?_检查参数所在的类,是否加入了optimal的优化参数序列中.-优快云博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值