import torch
from torch.nn import Linear, Module, MSELoss
from torch.optim import SGD
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
# 定义一个线性函数,这里使用y=5x+7
x = np.linspace(0, 20, 500)
y = 5*x + 7
plt.plot(x, y)
# 生成一些随机的点,作为训练数据
x = np.random.rand(256)
noise = np.random.randn(256) / 4
y = x * 5 + 7 + noise
df = pd.DataFrame()
df['x'] = x
df['y'] = y
# 显示下生成数据
sns.lmplot(x='x', y='y', data=df)
plt.show()
# 随机生成了一些点,下面将使用PyTorch建立一个线性的模型来对其进行拟合,这就是所说的训练的过程
# 其中参数(1, 1)代表输入输出的特征(feature)数量都是1. Linear 模型的表达式是y=wx+b,其中w代表权重,b代表偏置
model = Linear(1, 1)
# 损失函数我们使用均方损失函数:MSELoss
criterion = MSELoss()
# 优化器选择最常见的优化方法SGD,就是每一次迭代计算 mini-batch 的梯度,然后对参数进行更新,学习率 0.01
optim = SGD(model.parameters(), lr=0.01)
# 训练3000次
epochs = 3000
# 准备训练数据: x_train, y_train 的形状是 (256, 1), 代表 mini-batch 大小为256, feature 为1. astype('float32') 是为了下一步可以直接转换为 torch.float.
x_train = x.reshape(-1, 1).astype('float32')
y_train = y.reshape(-1, 1).astype('float32')
# 开始训练
for i in range(epochs):
# 整理输入和输出的数据,这里输入和输出一定要是torch的Tensor类型
inputs = torch.from_numpy(x_train)
labels = torch.from_numpy(y_train)
# 使用模型进行预测
outputs = model(inputs)
# 梯度置0,否则会累加
optim.zero_grad()
# 计算损失
loss = criterion(outputs, labels)
# 反向传播
loss.backward()
# 使用优化器默认方法优化
optim.step()
if (i%100==0):
# 每 100次打印一下损失函数,看看效果
print('epoch {}, loss {:1.4f}'.format(i, loss.data.item()))
# 训练完成后看训练的成果是多少.model.parameters()提取模型参数.w,b是需要训练的模型参数m期望的数据w=5,b=7
[w, b] = model.parameters()
print(w.item(), b.item())
# 可视化一下我们的模型
predicted = model.forward(torch.from_numpy(x_train)).data.numpy()
plt.plot(x_train, y_train, 'go', label = 'data', alpha = 0.3)
plt.plot(x_train, predicted, label = 'predicted', alpha = 1)
plt.legend()
plt.show()
从左到右分别对应生成原直线,随机生成的数据点,预测的直线
这是训练后的w、b的对应值: