知识点补充
- torch.nn.Linear(input_dim,output_dim)
- input_dim:输入的维度,即特征x的个数
- output_dim:输出的维度,即输出y的个数
- torch.nn.MSELoss(size_average = True, reduce = True)
- size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。
- reduce:True表示降维;False表示不降维,返回每一个batch元素的损失值。默认为True。
相当于size_average的开关。True打开返回一个标量(可理解为一个数值),False关闭返回一个向量(可理解为一个数组)。
- torch.optim.SGD(model.parameters(), lr=0.01)
- model.parameters(),获取模型中所有的参数,SGD模型给出的参数必须是向量类型
- lr:学习率
实现的步骤
- prepare dataset 准备数据集
- design model using class 使用类来设计模型
- constuct loss and optimizer 创建loss 和优化器
- taining cycle 循环训练
完整代码
import torch
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])
class LinearModel(torch.nn.Module):
def __init__(self):
super(LinearModel,self).__init__()
self.linear = torch.nn.Linear(1, 1)
def forward(self, x):
y_pred = self.linear(x)
return y_pred
model = LinearModel()
criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for epoch in range(1000):
y_pred = model(x_data)
loss = criterion(y_pred,y_data)
print(epoch, loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())
x_test = torch.Tensor([4.0])
y_test_pred = model(x_test)
print("y_pred:", y_test_pred.item())