之前4-6的笔记仅复习了单变量线性模型,从这一篇开始复习多变量的模型。
多参数线性回归模型是一种用于分析多个自变量与一个因变量之间线性关系的统计模型。
模型定义
假设我们有个观测数据点
,其中
,
表示第
个观测值的第
个自变量,
表示第
个观测值的因变量。多参数线性回归模型的一般形式为:
其中,
是待估计的参数,
称为截距项,
称为回归系数,
是随机误差项,通常假定
独立同分布,且服从均值为
,方差为
的正态分布,即
。
参数估计
这部分写的比较笼统,后面的笔记会进一步解释梯度算法
通常采用最小二乘法来估计模型中的参数。最小二乘法的目标是找到一组参数估计值,使得观测值
与预测值
之间的误差平方和最小。 误差平方和
可以表示为:
为了找到使
最小的参数估计值,对
分别关于
求偏导数,并令偏导数等于
,得到以下正规方程组:
解这个正规方程组,就可以得到参数的最小二乘估计值
。
模型检验
拟合优度检验
常用的指标是判定系数 ,它表示回归平方和占总离差平方和的比例,计算公式为:
其中,
是
的均值。
的取值范围在 0-1之间,
越接近 1,说明模型对数据的拟合程度越好。
变量的显著性检验
对于每个回归系数 ,需要检验其是否显著不为 0。通常采用
检验,检验统计量为:
其中,
是
的标准误差。在原假设
下,
服从自由度为
的
分布。通过计算
的值,并与给定的显著性水平下的临界值进行比较,来判断是否拒绝原假设,从而确定变量
对因变量
的影响是否显著。
模型的显著性检验
采用 检验来检验整个回归模型的显著性。检验统计量为:
在原假设 下,
服从自由度为
的
分布。通过比较
值与给定显著性水平下的临界值,来判断是否拒绝原假设,即判断整个回归模型是否显著。 ### 预测 得到参数估计值后,就可以利用多参数线性回归模型进行预测。对于给定的一组自变量值
,对应的因变量预测值为:
同时,可以根据估计的模型参数和误差方差,给出预测值的置信区间,以反映预测的不确定性。
是回归平方和,代表了由自变量解释的因变量的变异部分,
是根据回归模型预测得到的第
个观测值的因变量预测值,
是因变量观测值的均值。
是自变量的个数(不包括截距项对应的参数)。
是残差平方和,即模型不能解释的因变量的变异部分,
是第
个观测值的因变量实际值。
是观测数据点的数量。
是残差平方和的自由度 。 在原假设
(即所有自变量对因变量都没有显著影响)下,该
统计量服从自由度为
的
分布。通过比较计算得到的
值与给定显著性水平下的
分布临界值,来判断是否拒绝原假设,从而确定整个回归模型是否显著。
总结
这一节提前代入了很多后面的公式,只是为了有个大概印象,梯度函数,最小函数后面会进一步讲解。
总的来说:
模型由单特征的 变为多特征形式
,(
为基本价格,
表示对应特征对价格的影响)。一般地,若有
个特征,模型为
。
然后将模型简化。将参数定义为向量
,
也定义为向量
,模型可重写为
,
其这里用到线性代数的点乘 ,这种表示更紧凑。