- 博客(3)
- 收藏
- 关注
原创 超高维变量筛选
在所有统计学习工具中,回归分析是最流行的方法之一,被广泛用于响应变量y和一系列协变量x之间的关系进行建模。在文献中各种回归分析的模型和方法都在发展,从经典的线性回归到非参数回归。然而在协变量维数p很大时,大多数回归模型和方法可能会严重受损。从协变量中选择一个预测因子子集是有必要的。在现有研究中,广泛通过变量选择方法进行降维,主要分为两种方法:子集选择方法包括逐步回归(Efroymson 1960)、正向选择、向后选择等;惩罚似然方法包括LASSO,非负garrotte, SCAD,弹性网络等。
2023-04-17 19:59:37
3021
7
原创 广义线性混合模型的稳健估计
广义线性混合模型是处理纵向数据和重复测量数据等聚类数据的有力工具。广义线性混合模型或广义部分线性混合模型的推理大体可以通过极大似然估计(MLE)和广义估计方程(GEE)进行。但是MLE和GEE方法对于离群值是敏感的,在面对污染数据时,需要一些稳健的方法。由于大多数稳健方法都是基于回归模型,对于广义线性混合模型的研究较少。本文基于广义线性混合模型,对一些基于似然的稳健方法进行介绍。
2023-04-12 09:32:42
648
1
原创 稳健估计方法
最小二乘法得到的估计量为1.Huber回归估计量为其中,为预先给定的阈值。由上式可以看出,在残差绝对值小于阈值时,仍然采用平方损失。在残差绝对值大于阈值时,认为该数据值为异常值,通过绝对值损失来降低对应数据点的权重。平方损失可以得到无偏估计,但对于异常值敏感,而绝对值损
2023-04-10 15:30:47
3222
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人