[概率论基本概念4]什么是无偏估计

关键词:Unbiased Estimation

一、说明

对于无偏和有偏估计,需要了解其叙事背景,是指整体和抽样的关系,也就是说整体的叙事是从理论角度的,而估计器原理是从实践角度说事;为了表明概率理论(不可操作)和统计学(可操作)的实践的一致性,于是提出有偏和无偏的观点。

二、关于无偏和有偏

如果给定参数的估计量 的 预期值等于该参数的真实值, 则称该估计量是无偏的 。另一个说法,如果估计量产生的参数估计平均而言是正确的,那么它就是无偏的。
我们先做一个思想实验,如通过打靶考核射手的水平,假如决定射手的因素有两个:眼力和手平衡。
在这里插入图片描述
于是对于任意一个选手,这个选手的属性如下:

<眼力=1,手平衡=1>,<眼力=0,手平衡=1>,<眼力=1,手平衡=0>,
<眼力=0,手平衡=0>

打靶结果
在这里插入图片描述
我们从上面例子解释“无偏”和“有偏”的关系。在以上打靶结果中,
<眼力=1,手平衡=1>和<眼力=1,手平衡=0>属于“无偏
<眼力=0,手平衡=1>和<眼力=0,手平衡=0>属于“有偏
为什么呢?
我们考虑打靶的重心值:
Xˉ=∑i=13Xi\bar{X}=\sum^{3}_{i=1}X_iXˉ=i=13Xi
Xˉ\bar{X}Xˉ的极限等于把心c,那么就是无偏的,否则就是有偏的。

注意:有偏估计也不是没有意义的。只要能给出固定偏移,不难将无偏估计转化成无偏估计。

三、偏差和无偏差估计器

如果估计器u(X1,X2,…,Xn)u(X_1,X_2,\ldots,X_n)u(X1,X2,,Xn)以下情况成立:
E[u(X1,X2,…,Xn)]=θE[u(X_1,X_2,\ldots,X_n)]=\thetaE[u(X1,X2,,Xn)]=θ那么统计u(X1,X2,…,Xn)u(X_1,X_2,\ldots,X_n)u(X1,X2,,Xn)是参数的无偏估计量θ\thetaθ。 否则,u(X1,X2,…,Xn)u(X_1,X_2,\ldots,X_n)u(X1,X2,,Xn)是一个有偏估计θ\thetaθ

3.1 贝努力变量p的无偏估计

如果XiX_iXi是具有参数的伯努利随机变量ppp, 那么:
p^=1n∑i=1nXi\hat{p}=\dfrac{1}{n}\sum\limits_{i=1}^nX_ip^=n1i=1nXi
是最大似然估计量(MLE)p^\hat{p}p^ 是p的无偏估计量.

证明:
回想一下,如果XiX_iXi是具有参数的伯努利随机变量ppp, 那么E(Xi)=pE(X_i)=pE(Xi)=p
。 这里对估计器求期望:
E(p^)=E(1n∑i=1nXi)=1n∑i=1nE(Xi)=1n∑i=1np=1n(np)=pE(\hat{p})=E\left(\dfrac{1}{n}\sum\limits_{i=1}^nX_i\right)=\dfrac{1}{n}\sum\limits_{i=1}^nE(X_i)=\dfrac{1}{n}\sum\limits_{i=1}^np=\dfrac{1}{n}(np)=pE(p^)=E(n1i=1nXi)=n1i=1nE(Xi)=n1i=1np=n1(np)=p

第一个等式成立,因为我们只是替换了p^\hat{p}p^及其定义。第二个等式根据线性组合的期望规则成立。第三个等式成立,因为E(Xi)=pE(X_i)=pE(Xi)=p。第四个等式成立,因为当你添加值p向上连加n次,你得到np。当然,最后一个等式是简单的代数。

总而言之,我们已经证明:E(p^)=pE(\hat {p})= pEp^=p
因此,最大似然估计量是p。

3.2 正态分布的无偏估计

如果XiX_iXi是具有均值的正态分布的随机变量,参数μ\muμ和方差σ2\sigma^2σ2的无偏估计是:
μ^=∑Xin=Xˉ\hat{\mu}=\dfrac{\sum X_i}{n}=\bar{X}μ^=nXi=Xˉ
σ^2=∑(Xi−Xˉ)2n\hat{\sigma}^2=\dfrac{\sum(X_i-\bar{X})^2}{n}σ^2=n(XiXˉ)2
下面用无偏性估计定义进行验证:
只要证明:E(Xi)=μE(X_i)=\muE(Xi)=μVar(Xi)=σ2\text{Var}(X_i)=\sigma^2Var(Xi)=σ2就可以。

E(Xˉ)=E(1n∑i=1nXi)=1n∑i=1nE(Xi)=1n∑i=1μ=1n(nμ)=μE(\bar{X})=E\left(\dfrac{1}{n}\sum\limits_{i=1}^nX_i\right)=\dfrac{1}{n}\sum\limits_{i=1}^nE(X_i)=\dfrac{1}{n}\sum\limits_{i=1}\mu=\dfrac{1}{n}(n\mu)=\muE(Xˉ)=E(n1i=1nXi)=n1i=1nE(Xi)=n1i=1μ=n1(nμ)=μ
第一个等式成立,因为我们只是用Xˉ\bar{X}Xˉ及其定义。同样,第二个相等性符合线性组合的期望规则。第三个相等性成立,因为E(Xi)=μE(X_i)=\muE(Xi)=μ.第四个相等性成立,因为当您将值μ\muμ累加n次倍,你会得到np。最后一个相等是简单代数。
总之,我们已经证明:E(Xˉ)=μE(\bar{X})=\muE(Xˉ)=μ
因此,最大似然估计量为μ\muμ是公正的.
下面我们证明σ^2=∑(Xi−Xˉ)2n\hat{\sigma}^2=\dfrac{\sum(X_i-\bar{X})^2}{n}σ^2=n(XiXˉ)2也是公正无偏的。
首先回顾方差的基本定义:
Var(X)=E((X−E(X))2)=E(X2)−E(X)2Var(X)=E( (X-E(X))^2)=E(X^2)-E(X)^2Var(X)=E(XEX2)=E(X2)E(X)2
对于独立同分布的抽样样本(X1,X2,…,Xn)(X_1,X_2,\ldots,X_n)(X1,X2,,Xn),每个随机变量数值特征是一样的,也就是说:
E(X1)=E(X2)=,…,E(Xn)=μE(X_1)=E(X_2)=,\ldots,E(X_n)=\muE(X1=EX2=,,EXn)=μ
Var(X)=Var(X1)=Var(X2)=,…,Var(Xn)=σ2Var(X)=Var(X_1)=Var(X_2)=,\ldots,Var(X_n)=\sigma^2Var(X)=Var(X1=VarX2=,,VarXn)=σ2
下面我们将给出证明
E(σ^2)=E(∑(Xi−Xˉ)2n)=∑E(Xi−Xˉ)2n=∑E(Xi2−2X2Xˉ+Xˉ2)n=∑[E(Xi2)−2E(XiXˉ)+E(Xˉ)2]n=∑[E(Xi2)−2E(Xi)Xˉ+(Xˉ)2)n=∑[E(Xi2)−Xˉ2]n=n[E(X2)−EXˉ2]n=E(X2)−EXˉ2=σ2E(\hat{\sigma}^2)=E(\dfrac{\sum(X_i-\bar{X})^2}{n})=\dfrac{\sum E(X_i-\bar{X})^2}{n}=\dfrac{\sum E(X_i^2-2X_2\bar{X}+\bar{X}^2)}{n}=\dfrac{\sum[ E(X_i^2)-2E(X_i\bar{X})+E(\bar{X})^2]}{n}=\dfrac{\sum[ E(X_i^2)-2E(X_i)\bar{X}+(\bar{X})^2)}{n}=\dfrac{\sum[ E(X_i^2)- \bar{X}^2]}{n}=\dfrac{n[ E(X^2)- E\bar{X}^2]}{n}= E(X^2)- E\bar{X}^2=\sigma^2E(σ^2)=E(n(XiXˉ)2)=nE(XiXˉ)2=nE(Xi22X2Xˉ+Xˉ2)=n[E(Xi2)2E(XiXˉ)+E(Xˉ)2]=n[E(Xi2)2E(Xi)Xˉ+(Xˉ)2)=n[E(Xi2)Xˉ2]=nn[E(X2)EXˉ2]=E(X2)EXˉ2=σ2
第一个等号是等价代换,第二个等号E(期望)的线性等价性质。第三个等号。代数展开。第四个等号,期望线性恒等式。第五个等式,因为Xˉ\bar XXˉ不是随机变量,而XiX_iXi是随机变量,因此用E(cX)=cE(X)E(cX)=cE(X)E(cX=cEXE(Xˉ)=XˉE(\bar X)=\bar XE(Xˉ)=Xˉ简化;第六个等式,因为E(Xi)=E(X)E(X_i)=E(X)EXi=EX这是因为两个随机变量的期望是一致的。第七个等式代数加和展开。第八等式,正态分布方差公式简化版。从而E(σ2^)=σ2E(\hat{\sigma^2})=\sigma^2E(σ2^)=σ2得证。

四、结论

这里需要首先肯定得是,有偏/无偏与误差偏差无关,不是说误差越大越有偏;一种可能是估计器误差很大,但他是无偏估计;另一种可能是估计器误差很小,但他是有偏估计。一个抽样有偏和无偏得判断措施就是对他求期望,该期望与整体得期望比较,发现有/无偏性。

<think>好的,用户想了解无偏估计方法IPS的概念,特别是在机器学习和数据科学中的应用。首先,我需要明确IPS的全称,应该是Inverse Propensity Scoring,也就是逆倾向评分。接下来要解释它的基本概念,属于因果推断和缺失数据处理的范畴。 用户提到的引用中,引用[3]提到了无监督学习,但IPS可能更多与监督学习相关,特别是处理选择偏差的问题。需要确定IPS的核心思想,即通过倾向得分来调整样本权重,纠正由于数据收集过程中非随机缺失或选择偏差带来的估计偏差。 然后,要说明IPS的数学公式。这里需要用到概率论中的倾向得分,即给定特征X的情况下,样本被选中的概率。IPS方法通过将观察到的结果除以倾向得分,得到无偏的期望估计。公式应该是$\hat{E}[Y] = \frac{1}{n} \sum_{i=1}^n \frac{Y_i \cdot D_i}{e(X_i)}$,其中$D_i$是选择指示变量,$e(X_i)$是倾向得分。 需要解释为什么这样做可以消除偏差,可能涉及到Horvitz-Thompson估计器的原理。同时,要提到倾向得分的估计方法,比如逻辑回归,以及应用场景,比如推荐系统、广告效果评估等。 还要注意IPS的假设,比如重叠性和无混淆假设,这些是保证估计无偏的重要条件。同时,用户可能关心IPS的优缺点,比如高方差问题,当倾向得分很小时,权重会放大方差,可能需要截断处理。 最后,结合用户提供的引用,特别是引用[2]提到的机器学习通过数据建立逻辑,IPS作为处理数据偏差的方法,可以提升模型的泛化能力。可能还需要提到在强化学习中的策略评估中的应用,但引用[3]提到强化学习部分未展开,所以可能需要简要说明。 检查是否所有数学公式都正确使用$...$或$$...$$格式,确保回答结构清晰,分点解释,并生成相关问题。例如,IPS的假设、优缺点、与其他方法的比较等。</think>### 无偏估计方法 IPS 的概念解析 **IPS(Inverse Propensity Scoring,逆倾向评分)** 是一种用于纠正数据选择偏差的无偏估计方法,广泛应用于因果推断、推荐系统、广告效果评估等领域[^3]。其核心思想是通过对样本的观测概率(倾向得分)进行逆加权,消除因数据非随机缺失或选择性收集导致的估计偏差。 --- #### 1. 数学定义与核心公式 假设观测数据中存在选择偏差(例如用户点击广告的行为仅部分被记录),定义: - $D_i \in \\{0,1\\}$ 表示第$i$个样本是否被观测到(如是否点击广告) - $Y_i$ 为潜在结果变量(如广告转化率) - $e(X_i) = P(D_i=1 | X_i)$ 为**倾向得分**,即给定特征$X_i$时样本被观测到的概率 IPS的无偏估计量可表示为: $$ \hat{E}[Y] = \frac{1}{n} \sum_{i=1}^n \frac{Y_i \cdot D_i}{e(X_i)} $$ 此公式通过对观测结果$Y_i$进行逆倾向加权,抵消了选择偏差的影响。 --- #### 2. 关键假设 - **重叠性(Overlap)**:对所有$X_i$,倾向得分满足$0 < e(X_i) < 1$ - **无混淆性(Unconfoundedness)**:$D_i$与$Y_i$在给定$X_i$的条件下独立 - **正确模型设定**:倾向得分模型需准确反映真实选择机制 --- #### 3. 在机器学习中的应用场景 1. **推荐系统纠偏**:用户点击行为存在选择偏差(未点击不代表不感兴趣),IPS可修正模型训练目标[^3] 2. **强化学习策略评估**:评估历史策略的表现时,通过IPS加权处理动作选择偏差 3. **广告效果分析**:估算广告全局转化率时,仅观测到部分曝光数据,IPS可恢复无偏估计 --- #### 4. 代码示例(倾向得分估计) ```python from sklearn.linear_model import LogisticRegression # 估计倾向得分e(X)(使用逻辑回归) X = features # 特征矩阵 D = observed_labels # 是否被观测到的标签 propensity_model = LogisticRegression().fit(X, D) e_X = propensity_model.predict_proba(X)[:, 1] # 预测概率 # IPS估计 Y_obs = observed_outcomes ips_estimate = np.mean(Y_obs * D / np.clip(e_X, 1e-3, 1)) # 防止除以0 ``` --- #### 5. 优缺点分析 | **优点** | **缺点** | |---------|---------| | 理论无偏性 | 依赖倾向得分模型准确性 | | 可结合监督学习 | 高方差(尤其当$e(X_i)$较小时) | | 适用于离散动作空间 | 需要满足严格假设条件 | ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

无水先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值