B站 刘二大人 ,传送门用PyTorch实现线性回归
#05作业:不同优化器下的损失
#最基本的框架:LinearModel
#把模型定义成一个类LinearModel,继承自torch.nn.Module。构造计算图,所有的神经网络模型都要继承Module类。
# class torch.nn.Linear(in_features, out_features, bias=True)
# Linear类的格式如上所示,in_features是输入数据的维数,out_features是输出样本的维数,bias是偏置值,默认是True
# 实例化对象之后相当于进行y = xw + b的计算
import os
os.environ['KMP_DUPLICATE_LIB_OK']='True'
import torch
import matplotlib.pylab as plt
x_data = torch.tensor([[1.0], [2.0], [3.0]])
y_data = torch.tensor([[2.0], [4.0], [6.0]])
class LinearModel(torch.nn.Module):
# 构造函数——初始化变量
def __init__(self):
super(LinearModel, self).__init__() #调用父类
# 构造对象 线性模型 (Linear继承Model,可以自动进行反向传播)
self.linear = torch.nn.Linear(1, 1) #nn.Linear包括w,b,是神经网络里的一个组件
# 对module类中原forward函数的重写
def forward(self, x):
# linear—— 可调用对象:linear(x), __call__函数
y_pred = self.linear(x)
return y_pred
# model也是一个可调用对象
model = LinearModel()
# MSELoss类继承自Module,torch.nn.MSELoss,可调用,pytorch提供的MSE损失函数。
criterion = torch.nn.MSELoss(reduction = 'sum')
# 实例化一个优化器对象,parameters是所有权重参数
#optimizer = torch.optim.SGD(model.parameters(), lr = 0.01) # model.parameters()自动完成参数的初始化操作
#optimizer = torch.optim.Adamax(model.parameters(), lr=0.01)
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
# optimizer = torch.optim.Adagrad(model.parameters(), lr=0.2)
epoch_list=[]
loss_list=[]
# 训练
for epoch in range(100):
y_pred = model(x_data)
loss = criterion(y_pred, y_data)
# loss计算出来是一个
print(epoch, loss) #这里的loss是一个总和
epoch_list.append(epoch)
loss_list.append(loss.item())
optimizer.zero_grad()# 将梯度值清0
# 反向传播求梯度
#print(loss)
loss.backward()
optimizer.step() # 优化器 更新权重
#print(model.linear.weight.item())
# 打印出最终的权重和偏置值
print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)
plt.plot(epoch_list,loss_list)
plt.show()