import torch
x_data =[1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]
w = torch. Tensor([1.0]) #一定要加 ‘’[]‘’ ,否则则会输出纯0的矩阵,例如 写w=torch.Tensor(3,5)则输出三行五列的0Tensor变量,加上括号才是[3.,5.]
w.requires_grad = True #只有requires_grad = True ,才可以计算反向梯度,这句话也可以在Tensor(requires_grad = True )直接定义
def forward(x) :
return x * w #这里w为Tesnor变量,x虽然不是Tensor变量,但是相乘之后也会自动转化为Tensor变量
def loss (x,y):
y_pred = forward (x)
return (y_pred-y)** 2
print ('predict (before training)',4,forward(4).item())
for epoch in range(100):
for x,y in zip(x_data, y_data):
l = loss(x,y)
l. backward() #计算反向梯度,此时loss函数建立的计算图被释放,等待下一次建立(每次计算图不一定是一成不变,如dropout随机失活可能改变计算图)
print('\tgrad:',x,y,w. grad.item()) #item函数可以将Tensor变量转换python变量类型
w.data = w.data -0.01 * w.grad.data #这里grad.data使用data进行计算不会产生计算图
w.grad.data.zero_() #梯度一定要清零,否则下次梯度会迭代增加
print(" progress:",epoch,l.item())
print(" predict (after training)",4,forward(4).item())
pytorch 学习笔记第一节
最新推荐文章于 2023-04-04 12:02:59 发布
本文通过使用PyTorch实现简单的线性回归模型,详细介绍了如何定义模型、损失函数及优化过程。从初始化参数到训练模型,展示了梯度下降法调整权重的过程。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch
Cuda
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理
8658





