因果发现与机器学习:从假设到应用
1. 因果发现假设回顾
因果发现旨在从观测(有时是干预或混合)数据中发现(或学习)真实的因果图。一般来说,这项任务具有挑战性,但在特定条件下是可行的。许多因果发现方法需要满足一系列假设才能有效使用。
- 因果充分性 :这是一个常见的假设,即不存在隐藏的混杂因素。大多数因果发现方法依赖此假设,但并非全部。
- 忠实性 :该假设指出,如果两个变量在给定第三个变量的条件下在其分布中是条件独立的,那么在表示数据生成过程的图中它们也将是条件独立的,形式化表示为:$X \perp_P Y|Z \Rightarrow X \perp_G Y|Z$。不过,忠实性假设有时难以满足,原因包括有限样本量下测试条件独立性时的采样误差,以及一个变量通过两条不同路径影响另一个变量且这两条路径的影响完全抵消的情况。但在现实世界中,后一种情况发生的概率极小。
- 因果最小性 :可能存在多个图或结构因果模型(SCM)产生相同的分布,这给恢复因果结构带来挑战。因果最小性假设规定,有向无环图(DAG)$G$相对于分布$P$是最小的,当且仅当$G$诱导$P$,但$G$的任何真子图都不能诱导$P$。也就是说,如果图$G$诱导$P$,那么从$G$中移除任何一条边都应导致一个与$P$不同的分布。
虽然并非所有因果发现方法都需要上述三个假设,但它们在众多方法中最为常见。
2. 四类(及半类)因果发现方法
现代因果发现的起源可追溯到Judea Pearl及其同事的工作。后续研究
超级会员免费看
订阅专栏 解锁全文
1237

被折叠的 条评论
为什么被折叠?



