禀赋效应

    禀赋效应(如“敝帚自珍”)是指当个人一旦拥有某项物品,那么他对该物品价值的评价要比未拥有之前大大增加。它是由Richard Thaler(1980)提出的。这一现象可以用行为金融学中的“损失厌恶”理论来解释,该理论认为一定量的损失给人们带来的效用降低要多过相同的收益给人们带来的效用增加。因此人们在决策过程中对利害的权衡是不均衡的,对“避害”的考虑远大于对“趋利”的考虑。出于对损失的畏惧,人们在出卖商品时往往索要过高的价格。禀赋效应充分体现了行为金融学的研究方法,对传统经济学的理性人假设提出了挑战。


当你拥有一样东西之后,你对这样东西的评价会高于你没有拥有它时。

——2017年诺贝尔经济学奖理查德塞勒教授的“禀赋效应”理论

拥有时的快乐,和失去它的痛苦,哪一个更大?

“怕麻烦”是一种什么心态?

为什么穷人更穷,富人更富?

    这几个看似风马牛不及的问题,其实背后都隐藏着同一种心理效应———禀赋效应。这个理论就是刚刚获得诺贝尔经济学奖的理查德塞勒教授(Richard Thaler)率先提出的。

    想要理解今天介绍的“禀赋效应”,先得了解“行为经济学”中,另一个更基本的概念——“损失厌恶”。

    假如你工作非常努力,天天晚上加班,为了鼓励你,领导特意打报告,为你争取加薪。然而到了年终,辛苦了一年的你,却一无所获。你一定非常失望。事实上,你什么都没有失去什么啊!努力工作却得不加薪的大有人在,为什么别人没有你那么失望呢?为什么经过一场想像中的“得而复失”后,你的心情比什么都没有发生时还要糟糕呢?

    上面的例子证明了“投资决策心理”中最重要的理论之一——“损失厌恶”:

得到一样东西的快乐,通常小于失去一样东西的痛苦,所以我们不喜欢冒险,宁愿放弃得到的快乐去维持现状,也不愿承受失去的痛苦。

    理查德塞勒教授说,这就是“禀赋效应”:当你拥有一样东西之后,你对这样东西的评价会高于你没有拥有它时。

    “禀赋效应”是“损失厌恶”心理造成的,因为“失去这1000元薪水”的痛苦,大于“得到1000元”(等同于五天年假)的开心。

人机融合中也存在着这种“禀赋效应”:在二者互动互通互传互递互换互知互识互教互学互习互助互进化互补互检互测互求互升互理互解中人的“损失厌恶”会衍生出相应的加速或减速器,而机器则不会有这种“”理效应。


<think>嗯,用户想了解双重机器学习在政策效应估计中的应用。首先需要回顾DML的核心机制——它通过正交化处理解决内生性问题,这正是政策评估的关键难点。从引用材料看,用户可能接触过DML的stata/python实现案例[^1],也关注因果推断技术(如反事实推理[^2]和Uplift模型[^3])。这说明用户具备一定基础,需要深入的技术细节而非概念科普。DML应用于政策评估的优势在于:第一阶段的ML模型能灵活处理高维混杂变量,比如用随机森林捕捉政策实施地区社会经济特征的复杂非线性关系。第二阶段通过Neyman正交构造的估计量对第一阶段误差不敏感,比传统回归更稳健。需要强调具体操作流程:1)数据划分策略(如K折交叉拟合防止过拟合)2)第二阶段回归模型选择(线性模型保持可解释性,或ML模型处理复杂效应异质性)3)结果解读注意事项(部分线性模型需区分ATE/CATE)。用户可能遇到的典型陷阱是协变量选择——必须包含所有同时影响政策分配和结果的变量。例如评估最低工资政策时,若遗漏地区产业结构特征,会导致估计偏差。这点需在回答中警示。最后生成的问题要覆盖延展方向:技术层面(工具变量处理内生政策)和应用层面(多期政策评估),帮助用户建立完整知识框架。</think>双重机器学习(DML)在政策效应估计中具有**突出优势**,能有效解决内生性偏差、遗漏变量等问题,已成为政策评估的主流方法之一。以下是其核心应用逻辑和关键步骤: --- ### **一、DML解决政策评估的核心问题** 1. **内生性处理** 政策实施往往存在**非随机分配**(如经济特区设立基于地区禀赋),导致传统回归存在混淆偏差。DML通过两阶段机器学习正交化处理: - **第一阶段**:用ML模型拟合政策变量$T$和结果变量$Y$与协变量$X$的关系 - **第二阶段**:利用残差$Y - \hat{Y}$和$T - \hat{T}$构建无偏估计量 $$ \theta = \frac{\text{Cov}(Y - \hat{Y}, T - \hat{T})}{\text{Var}(T - \hat{T})} $$ 该过程满足**Neyman正交性**,使估计量对第一阶段的ML误差不敏感[^1]。 2. **高维控制** 可灵活使用Lasso、随机森林等算法处理**高维混杂变量**(如地区经济指标、历史数据等),避免传统方法因维度限制导致的遗漏变量偏差。 --- ### **二、典型应用场景** | **场景** | **DML实现方式** | **案例** | |-----------------------|-------------------------------------------------------------------------------|-----------------------------------------| | **连续政策强度** | 构建部分线性模型:$Y = \theta T + g(X) + \epsilon$ | 评估基础设施投资对GDP的边际效应[^1] | | **二元政策干预** | 使用交互项模型:$Y = \theta (T \cdot Z) + h(X) + u$ ($Z$为异质性变量) | 分析减税政策对企业创新的异质性影响 | | **多期政策** | 加入时间固定效应:$Y_{it} = \theta T_{it} + f(X_{it}) + \alpha_i + \gamma_t + \epsilon_{it}$ | 评估环保法规的长期效果 | --- ### **三、操作流程(以Stata为例)** ```stata * 步骤1:安装dml包 ssc install dml * 步骤2:数据准备(假设政策变量treat,结果变量y,协变量集X) * 步骤3:交叉拟合估计(使用随机森林) dml lasso, data(y treat X) mlmethod(randomforest) kfolds(5) ``` 关键参数: - `mlmethod()`:指定ML算法(lasso/randomforest等) - `kfolds()`:设置交叉验证折数(通常≥5) - `orthog()`:选择正交化方法(默认Neyman正交) --- ### **四、优势与局限** **优势**: - 可兼容任意机器学习算法提升预测精度 - 通过交叉拟合避免过拟合(样本分割→模型训练→残差估计循环迭代) - 输出政策效应$\theta$的标准误便于统计推断 **局限**: - 需满足**条件外生性**:$E[\epsilon|X,T]=0$(不可观测混杂仍会导致偏差) - 高维协变量下需要大样本支持 - 算法选择影响结果稳健性(建议敏感性分析) --- ### **政策评估实例** > **研究问题**:评估"智慧城市"试点政策对企业数字化转型的影响。 > **DML设定**: > - 第一阶段:用XGBoost预测企业是否被选为试点($\hat{T}$)和数字化水平($\hat{Y}$) > - 第二阶段:用线性回归估计残差关系 > **发现**:政策平均提升试点企业数字化评分0.38个标准差(p<0.01),且对高科技企业效果更强[^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值