LR实例:波士顿房价预测2

这篇博客介绍了如何通过sklearn的train_test_split函数进行训练集和测试集划分,利用均方误差和决定系数评估线性回归模型,并探讨了特征相关性对模型的影响。此外,还比较了线性回归、决策树和随机森林的预测误差和评分差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上次做了最简单的一个LR实例,然后遗留了几个可以改进的问题:

1.训练集和测试集的划分

2.模型的评估和调整

3.特征的筛选

 

针对这些问题,分别查找了一些解决方法:

1.sklearn的train_test_split函数

train_test_split函数用于将矩阵随机划分为训练子集和测试子集,并返回划分好的训练集测试集样本和训练集测试集标签。

格式:

X_train,X_test, y_train, y_test =cross_validation.train_test_split(train_data,train_target,test_size=0.3, random_state=0)

参数解释:

train_data:被划分的样本特征集

train_target:被划分的样本标签

test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量

random_state:是随机数的种子。

随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。

随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:

种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。

2.模型评估

均方误差:house_mse = mean_squared_error(housing_labels, housing_predictions)

均方根误差:house_rmse = np.sqrt(tree_mse)

模型评分:model.score,返回决定系数 R²

    决定系数,反应了y的波动有多少百分比能被x的波动所描述,即表征依变数Y的变异中有多少百分比,可由控制的自变数X来解释。

    意义:拟合优度越大,说明x对y的解释程度越高。

     自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。

在得到评估参数后,又尝试了决策树和随机森林,发现不同模型,最终的误差和评分都很不一样。

3.数据集特征进行相关性计算

参考Iris数据集特征相关性处理,用corr函数计算了housing data里各个feature的相关度。

并通过图表直观展示。

数遗留问题:

1.找到每个feature和target之间的相关性,选出某些feature来作为input.

2.分层抽取数据

 

Reference:

1.scikit-learn 线性回归模型的score函数 https://blog.youkuaiyun.com/Rex_WUST/article/details/82621952

2.【特征相关性分析】对数据集特征进行相关性计算和绘图 https://blog.youkuaiyun.com/ChenVast/article/details/82802009

3.Python+sklearn练习朴素贝叶斯算法https://blog.youkuaiyun.com/keith_jiang/article/details/88381923

4.AI:总结线性回归模型评估方法 https://blog.youkuaiyun.com/weixin_40904071/article/details/95933283 

5.回归评价指标MSE、RMSE、MAE、R-Squared https://www.jianshu.com/p/9ee85fdad150

<think>嗯,用户想了解如何使用线性回归进行波士顿房价预测的应用实例和教程。首先,我需要回忆一下线性回归的基本概念和波士顿房价数据集的特点。线性回归是监督学习中的一种,用于建立自变量和因变量之间的线性关系模型波士顿房价数据集包含多个特征,比如犯罪率、房间数量等,目标变量是房价中位数。 接下来,用户可能需要具体的步骤指导。根据引用中的信息,实验三和相关的博客文章提到了数据预处理、模型构建、训练和评估等步骤。我需要整理这些步骤,确保逻辑清晰。比如,数据预处理通常包括标准化或归一化,这对线性模型很重要,因为特征的尺度会影响模型的收敛速度和性能。 然后,模型构建部分,引用3提到了使用Linear类实例模型,可能需要解释输入特征的维度。波士顿数据集通常有13个特征(包括常数项),所以输入大小应该是12或者13?需要确认,可能要看具体的实现。比如,在引用3中,input_size设为12,可能是指去除了某个特征或者不同的数据处理方式,这里可能需要进一步说明。 训练过程需要定义损失函数和优化器。引用1提到Runner类的封装,可能类似于训练循环的管理器,负责训练、验证和保存模型。用户可能需要了解如何编写训练循环,设置学习率、迭代次数等超参数。 评估部分,引用2提到了决定系数R&sup2;,这是一个重要的指标,说明模型解释变量变化的能力。同时,可视化真实值与预测值的对比图有助于直观理解模型表现。需要解释这些评估方法,并可能给出代码示例。 用户提供的引用中有一些代码片段,比如使用Linear类、Runner类的predict函数。需要将这些代码整合到教程中,确保语法正确,并解释关键部分。例如,在数据预处理阶段,标准化是如何进行的;模型定义时各层的作用;训练过程中的损失函数和优化器选择等。 可能遇到的问题包括数据加载、特征选择、过拟合处理等。引用1提到实验中遇到了很多错误,用户可能需要一些调试技巧,比如检查数据形状、梯度下降是否收敛、学习率是否合适等。 另外,用户可能需要了解如何保存和加载模型,如引用4中的runner.load_model函数。这部分可以简要说明模型持久化的方法,方便后续使用。 最后,生成相关问题时要围绕线性回归的应用、优化方法、评估指标、数据集特点等方面,帮助用户深入学习和解决问题。例如,如何处理多重共线性,特征工程的作用,与其他算法的比较等。 总之,需要分步骤讲解整个流程,结合代码和解释,确保用户能够理解并复现波士顿房价预测的线性回归模型。同时,引用相关的资料,帮助用户进一步查阅细节。</think>### 使用线性回归进行波士顿房价预测实例教程 #### 1. **数据准备与预处理** 波士顿房价数据集包含13个特征(如犯罪率、房间数量、学区质量等)和1个目标变量(房价中位数)。需进行以下预处理: - **数据标准化**:将特征值缩放到均值为0、方差为1的分布,公式为: $$x_{\text{norm}} = \frac{x - \mu}{\sigma}$$ 标准化可加速模型收敛[^1]。 - **数据集划分**:按比例(如8:2)划分为训练集和测试集。 #### 2. **模型定义** 线性回归模型公式为: $$\hat{y} = w_1x_1 + w_2x_2 + \dots + w_{12}x_{12} + b$$ 其中$w$为权重,$b$为偏置项。代码实现如下(引用自[^3]): ```python from nndl.op import Linear input_size = 12 # 特征维度(去除冗余特征后的维度) model = Linear(input_size) ``` #### 3. **模型训练** 使用均方误差(MSE)作为损失函数,公式为: $$MSE = \frac{1}{n}\sum_{i=1}^n (y_i - \hat{y}_i)^2$$ 通过梯度下降优化参数。代码示例: ```python import torch.optim as optim optimizer = optim.SGD(model.parameters(), lr=0.01) # 随机梯度下降 loss_fn = torch.nn.MSELoss() # 均方误差 # Runner类封装训练过程(引用自[^4]) class Runner: def train(self, model, train_data, epochs): for epoch in range(epochs): X, y = train_data pred = model(X) loss = loss_fn(pred, y) optimizer.zero_grad() loss.backward() optimizer.step() ``` #### 4. **模型评估** - **决定系数$R^2$**:衡量模型解释能力,$R^2$越接近1表示拟合越好[^2]。 - **预测对比可视化**:绘制真实值与预测值的散点图(引用自[^2])。 ```python import matplotlib.pyplot as plt plt.scatter(y_test, preds) plt.xlabel("True Prices") plt.ylabel("Predicted Prices") plt.title("Boston Housing Price Prediction") ``` #### 5. **应用实例** 通过Runner类加载模型预测(引用自): ```python runner = Runner() runner.load_model("saved_models/linear_regression.pth") # 加载模型 pred = runner.predict(X_test[:1]) # 预测单个样本 print(f"真实房价:{y_test[:1].item()}, 预测房价:{pred.item()}") ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值