pytorch深度学习实践_p5_用pytorch实现线性回归

本文介绍了如何使用PyTorch实现线性回归,讲解了torch.nn.Linear的参数含义,torch.nn.MSELoss的设置选项,以及torch.optim.SGD的学习率设置。文章分为知识点补充、实现步骤和完整代码三个部分,提供了一个完整的线性回归训练流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

知识点补充

  • torch.nn.Linear(input_dim,output_dim)
  • input_dim:输入的维度,即特征x的个数
  • output_dim:输出的维度,即输出y的个数
  • torch.nn.MSELoss(size_average = True, reduce = True)
  • size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。
  • reduce:True表示降维;False表示不降维,返回每一个batch元素的损失值。默认为True。
    相当于size_average的开关。True打开返回一个标量(可理解为一个数值),False关闭返回一个向量(可理解为一个数组)。
  • torch.optim.SGD(model.parameters(), lr=0.01)
  • model.parameters(),获取模型中所有的参数,SGD模型给出的参数必须是向量类型
  • lr:学习率

实现的步骤

  1. prepare dataset 准备数据集
  2. design model using class 使用类来设计模型
  3. constuct loss and optimizer 创建loss 和优化器
  4. taining cycle 循环训练

完整代码

import torch

#prepare dataset
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])

#design model

class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel,self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()
#constuct loss and optimizer

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

#Training

for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch, loss.item())

    optimizer.zero_grad() #对之前的梯度清零
    loss.backward()       #反向传播计算梯度
    optimizer.step()      #更新参数

print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())

x_test = torch.Tensor([4.0])
y_test_pred = model(x_test)
print("y_pred:", y_test_pred.item())
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值