python MLPRegressor神经网络回归预测

'''载入数据'''
from sklearn import datasets
boston = datasets.load_boston()
x,y = boston.data,boston.target
'''引入标准化函数'''
from sklearn import preprocessing
x_MinMax = preprocessing.MinMaxScaler()
y_MinMax = preprocessing.MinMaxScaler()

''' 将 y 转换成 列 '''
import numpy as np
y = np.array(y).reshape(len(y),1)
'''标准化'''
x = x_MinMax.fit_transform(x)
y = y_MinMax.fit_transform(y)

''' 按二八原则划分训练集和测试集 '''
from sklearn.model_selection import train_test_split
np.random.seed(2019)
x_train, x_test, y_train, y_test = train_test_split(x,y,test_size = 0.2)

'''模型构建'''
from sklearn.neural_network import MLPRegressor
fit1 = MLPRegressor(
        hidden_layer_sizes=(100,50), activation='relu',solver='adam',
        '''第一个隐藏层有100个节点,第二层有50个,激活函数用relu,梯度下降方法用adam'''
        alpha=0.01,max_iter=200)
        '''惩罚系数为0.01,最大迭代次数为200'''
print ("fitting model right now")
fit1.fit(x_train,y_train)
pred1_train = fit1.predict(x_train)
'''计算训练集 MSE'''
from sklearn.metrics import mean_squared_error
mse_1 = mean_squared_error(pred1_train,y_train)
print ("Train ERROR = ", mse_1)
'''计算测试集mse'''
pred1_test = fit1.predict(x_test)
mse_2 = mean_squared_error(pred1_test,y_test)
print ("Test ERROR = ", mse_2)

'''结果可视化'''
import matplotlib.pyplot as plt
xx=range(0,len(y_test))
plt.figure(figsize=(8,6))
plt.scatter(xx,y_test,color="red",label="Sample Point",linewidth=3) 
plt.plot(xx,pred1_test,color="orange",label="Fitting Line",linewidth=2)
plt.legend()
plt.show()

结果如下:

### 使用MLP神经网络和LBFGS求解器进行回归预测 #### MLP神经网络简介 多层感知机(Multilayer Perceptron, MLP)是一种前馈型人工神经网络,能够学习非线性模型。MLP由多个层次组成,每一层包含若干个节点(即神经元),这些节点之间存在连接权重。对于回归任务而言,通常使用`MLPRegressor`类。 #### LBFGS求解器概述 LBFGS(Limited-memory Broyden–Fletcher–Goldfarb–Shanno)是一个优化算法,在有限内存条件下近似二阶导数矩阵来进行最优化计算。它适合于小型至中型的数据集,并且当目标函数接近凸形时表现良好[^2]。 #### 实现过程 为了利用带有LBFGS求解器的MLP执行回归分析,需遵循以下指南: - 导入必要的库; - 准备训练数据集; - 创建并配置`MLPRegressor`实例; - 训练模型; - 对测试数据做出预测; 下面给出具体的Python代码示例: ```python from sklearn.neural_network import MLPRegressor import numpy as np # 数据准备阶段 X_train = np.array([[0., 0.], [1., 1.]]) y_train = np.array([0, 1]) # 定义MLP回归器对象,指定激活函数为'tanh',隐藏层数量以及每层单元数量, # 并设置solver='lbfgs' regressor = MLPRegressor(hidden_layer_sizes=(5,), activation="tanh", solver='lbfgs', max_iter=200) # 开始训练 regressor.fit(X_train, y_train) # 测试部分 X_test = np.array([[2., 2.], [-1., -2.]]) predictions = regressor.predict(X_test) print(predictions) ``` 此段程序展示了如何创建一个简单的两输入一输出的MLP回归模型,并应用LBFGS作为其内部使用的梯度下降替代方案来寻找最优参数组合。值得注意的是,这里选择了`tanh`作为激活函数之一,而实际项目里可能还需要考虑其他因素如正则化强度(`alpha`)等超参的选择以防止过拟合现象的发生。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值