收缩方法:线性模型变量选择的利器
在数据分析和建模领域,变量选择是一个至关重要的环节,它直接影响到模型的性能和解释性。收缩方法作为一种有效的变量选择技术,近年来受到了广泛的关注。本文将深入探讨收缩方法的原理、常见类型及其在线性模型中的应用。
1. 收缩方法概述
收缩方法,也称为惩罚或正则化方法,与传统的模型选择方法不同,它通常是通过从风险中减去一个惩罚项,而不是从对数似然中减去。惩罚项一般是参数的函数乘以一个常数,这个常数被称为衰减参数。收缩方法的核心思想是根据衰减参数的大小对变量进行排序,从而将一般问题转化为嵌套问题。一旦衰减参数被估计出来,变量选择过程也就完成了。这种方法不仅适用于线性模型,还可以应用于各种不同类型的模型。
从抽象的角度来看,收缩方法旨在解决因解的非唯一性而导致的不适定问题,并通过自动将普通最小二乘(OLS)估计中的小系数收缩为零来获得稀疏解,从而降低方差。例如,当设计矩阵 $X$ 不是满秩时,OLS 估计可能不唯一;即使 OLS 估计存在且无偏,当 $X$ 接近共线性时,由于非稀疏性,它的方差也会很大。与 OLS 不同,一些收缩方法,如岭回归,能使问题适定但不产生稀疏解;而另一些方法,如最小绝对收缩和选择算子(LASSO),既能使问题适定,又能同时实现稀疏性。总体而言,当自变量数量 $p$ 较大时,收缩估计器通常比 OLS 估计器具有更好的预测性能和更小的方差。
从更实际的角度来看,一个好的变量选择程序应该具备两个主要目标:一是从候选变量中筛选出不重要的变量,二是高效且一致地估计重要变量的回归系数。满足这些条件的变量选择程序被称为“神谕”(oracle)程序。
2. 神谕性质与变量选择
神谕程序
超级会员免费看
订阅专栏 解锁全文
356

被折叠的 条评论
为什么被折叠?



