26、线性回归模型的构建、评估与优化

线性回归模型的构建、评估与优化

1. 特征选择与简单线性回归模型引入

在构建线性回归模型时,我们关注与目标变量MEDV(房价)高度相关的特征。通过查看相关矩阵,发现目标变量MEDV与LSTAT变量的相关性最大(-0.74),但从散点图矩阵可知,LSTAT和MEDV之间存在明显的非线性关系。而RM与MEDV的相关性也较高(0.70),且二者在散点图中呈现线性关系,因此RM是引入简单线性回归模型概念的理想探索变量。

2. 普通最小二乘法(OLS)线性回归模型的实现

线性回归可理解为通过训练数据示例找到最佳拟合直线。我们使用普通最小二乘法(OLS)来估计线性回归线的参数,该方法能最小化训练示例的垂直距离平方和(残差或误差)。

2.1 梯度下降求解回归参数

回顾第2章中自适应线性神经元(Adaline)的实现,它使用线性激活函数和代价函数$J(w)$,通过梯度下降(GD)和随机梯度下降(SGD)等优化算法最小化该代价函数来学习权重。Adaline中的代价函数是误差平方和(SSE),与OLS使用的代价函数相同:
$J(w) = \frac{1}{2} \sum_{i=1}^{n} (y^{(i)} - \hat{y}^{(i)})^2$
其中,$\hat{y}$是预测值$\hat{y} = w^T x$。实际上,OLS回归可看作没有单位阶跃函数的Adaline,这样我们能得到连续的目标值而非类别标签 -1 和 1。以下是实现的第一个线性回归模型代码:

import numpy as np

class LinearRegressionGD(o
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值