在GLM建模中,我们会遇到两种残差。
Pearson残差:

以及标准化Pearson残差:

其实,标准化的Pearson残差就是在Pearson残差的基础上除以sqrt(φ(1-hi)) ,这其实暗含了两个调整:
Scaling-将残差的标准差调整至1;
De-leveraging-将残差通过杠杆系数hi进行去杠杆化。
比较有趣的是第二个去杠杆化的调整,为什么要这么做呢?
为方便阐述和理解,我们回到最简单的情形-普通线性回归。先看一个简单的例子,下表中是一个模拟的数据,其中的一些要点如下:
a,b是真实的截距和斜率;
x通常在1左右变动,而观测8是一个关于x的异常值;
y=a+b*x+norm(0,1),在直线附近加上随机扰动生成;
sigma^2=SSR/(n-p)=残差平方和/(8-2);
H是帽子矩阵,hi是其第i个对角线元素。


本文探讨了在广义线性模型(GLM)中,皮尔森残差和标准化皮尔森残差的概念。标准化过程包括残差的尺度调整和去杠杆化,目的是减轻异常值对残差的影响,使其更均匀可比。通过一个线性回归的示例,展示了异常值如何通过杠杆系数影响残差,并解释了为何需要进行这种标准化调整。同时,文章还区分了随机误差和残差的区别,强调了残差在模型诊断和重抽样中的重要性。
最低0.47元/天 解锁文章
530

被折叠的 条评论
为什么被折叠?



