一、实验目的
1、熟悉线性回归的求解公式;
2、掌握线性回归的实现;
3、熟悉numpy的使用;
4、熟悉matplotlib的使用。
二、实验设备
计算机:CPU四核i7 6700处理器;内存8G; SATA硬盘2TB硬盘; Intel芯片主板;集成声卡、千兆网卡、显卡; 20寸液晶显示器。
编译环境:python解释器、Pycharm编辑器
三、实验代码
import numpy as np
import matplotlib.pyplot as plt
def data_producer(num_data, noise_coefficient):
w = np.random.uniform(0, 2)
b = np.random.uniform(0, 5)
x = np.random.randn(num_data)
y = w * x + b + noise_coefficient * np.random.randn(num_data)
data = np.vstack((x, y)).T
np.savetxt('data.txt', data, fmt='%.16f')
return w, b
class LinearRegression:
def __init__(self, data):
self.data = data
self.w = None
self.b = None
def calculate(self):
x_average = np.mean(self.data[:, 0])
w_0 = np.dot(self.data[:, 0], self.data[:, 1])
w_1 = x_average*self.data[:, 1].sum()
w_2 = np.dot(self.data[:, 0], self.data[:, 0])
w_3 = np.square(self.data[:, 0].sum()) / self.data.shape[0]
self.w = (w_0 - w_1)/(w_2 - w_3)
b_0 = np.mean(self.data[:, 1])
b_1 = self.w*x_average
self.b = b_0 - b_1
print("计算出的w=", self.w)
print("计算出的b=", self.b)
if __name__ == "__main__":
Num_data = 100
Noise_coefficient = 0.1
w_truth, b_truth = data_producer(Num_data, Noise_coefficient)
print("真实的w=", w_truth)
print("真实的b=", b_truth)
my_data = np.loadtxt('data.txt', dtype='float')
data_train = my_data[0:int(my_data.shape[0]*0.5), :]
data_test = my_data[int(my_data.shape[0]*0.5):, :]
my_lr = LinearRegression(data_train)
my_lr.calculate()
plt.figure()
plt.subplot(221)
plt.plot(data_train[:, 0], data_train[:, 1], 'rs')
plt.subplot(222)
plt.plot(data_test[:, 0], data_test[:, 1], 'gD')
plt.subplot(223)
plt.plot(my_data[:, 0], my_data[:, 0]*w_truth + b_truth)
plt.subplot(224)
plt.plot(my_data[:, 0], my_data[:, 0]*my_lr.w + my_lr.b)
plt.show()
四、实验结果
五、实验总结
本次实验我完成了多元线性回归线性模型的算法。线性模型常用于处理分类问题,如果我们的统计方法没有问题,那么可以看到这种线性模型在进行分类时有非常高的精度,而且更重要的是这种算法的实现并不复杂,理解了线性模型原理并能够利用线性模型解决相关问题。