第5讲 pytorch实现线性回归 作业

本文通过使用PyTorch实现线性回归模型,并对比不同优化器下的损失变化,介绍了如何构建模型、定义损失函数及优化器,以及完成模型训练的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

B站 刘二大人 ,传送门用PyTorch实现线性回归  


#05作业:不同优化器下的损失

#最基本的框架:LinearModel
#把模型定义成一个类LinearModel,继承自torch.nn.Module。构造计算图,所有的神经网络模型都要继承Module类。
# class torch.nn.Linear(in_features, out_features, bias=True)
# Linear类的格式如上所示,in_features是输入数据的维数,out_features是输出样本的维数,bias是偏置值,默认是True
# 实例化对象之后相当于进行y = xw + b的计算
import os
os.environ['KMP_DUPLICATE_LIB_OK']='True'
import torch
import matplotlib.pylab as plt

x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
class LinearModel(torch.nn.Module):
    # 构造函数——初始化变量
    def __init__(self):
        super(LinearModel, self).__init__()  #调用父类
        # 构造对象 线性模型  (Linear继承Model,可以自动进行反向传播)
        self.linear = torch.nn.Linear(1, 1)  #nn.Linear包括w,b,是神经网络里的一个组件

# 对module类中原forward函数的重写
    def forward(self, x):
        # linear—— 可调用对象:linear(x), __call__函数
        y_pred = self.linear(x)
        return y_pred
# model也是一个可调用对象
model = LinearModel()

# MSELoss类继承自Module,torch.nn.MSELoss,可调用,pytorch提供的MSE损失函数。
criterion = torch.nn.MSELoss(reduction = 'sum')
# 实例化一个优化器对象,parameters是所有权重参数
#optimizer = torch.optim.SGD(model.parameters(), lr = 0.01) # model.parameters()自动完成参数的初始化操作
#optimizer = torch.optim.Adamax(model.parameters(), lr=0.01)
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
# optimizer = torch.optim.Adagrad(model.parameters(), lr=0.2)

epoch_list=[]
loss_list=[]

# 训练
for epoch in range(100):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    # loss计算出来是一个
    print(epoch, loss) #这里的loss是一个总和
    epoch_list.append(epoch)
    loss_list.append(loss.item())

    optimizer.zero_grad()# 将梯度值清0
    # 反向传播求梯度
    #print(loss)
    loss.backward()
    optimizer.step() # 优化器 更新权重
    #print(model.linear.weight.item())


# 打印出最终的权重和偏置值
print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())

x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)

plt.plot(epoch_list,loss_list)
plt.show()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值