- 博客(11)
- 收藏
- 关注
原创 深度学习之因果发现(六)Neural Time-invariant Causal Discovery (NTiCD)
论文提出了NTiCD算法,这是一种基于分数的因果发现方法,旨在从多变量时间序列数据中学习总结性因果图。算法使用了深度神经网络中的长短期记忆网络(LSTM)来获取时间序列中隐藏的非线性特征,再通过图卷积网络(GCN)聚合信息,并通过多层感知机(MLP)解码预测未来的数据值。最终输出的是一个总结性因果图,能够表示时间序列中的因果关系。NTiCD在多个合成数据集和真实数据集上进行了实验,结果显示该方法在因果结构发现方面的准确性优于其他先进方法。“时间不变的总结性因果图”是一种不依赖于特定时间滞后的因果关系表示。
2024-11-14 14:49:40
879
原创 深度学习之因果发现(五)Regression with Subsequent Independence Test(RESIT)
RESIT通过结合回归和独立性测试,并加入惩罚化的独立性得分,逐步建立起多变量数据的因果图结构。尽管在处理高维数据和独立性测试上存在统计上的挑战,但RESIT在因果推断领域中是一种有效的算法,其代码见https://github.com/cdt15/lingam/tree/master/lingam。
2024-10-31 15:45:49
543
原创 深度学习之因果发现(四)Post-NonLinear (PNL)
尽管ANM和PNL模型都基于“残差与预测变量独立性”的思想进行因果关系判别,PNL模型通过引入更复杂的非线性变换和失真模型,增强了对复杂数据(如含有多重非线性效应和噪声失真的数据)的适应性。因此,PNL模型在适用范围和因果方向识别能力上优于ANM,但其计算复杂度也相对更高。实现代码见 https://github.com/huawei-noah/trustworthyAI/tree/master/gcastle/example/pnl。
2024-10-31 14:21:01
1334
原创 深度学习之因果发现(三)Additive Noise Model (ANM)
加性噪声模型(ANM)判别因果关系的核心思想确实是基于判断残差与XXX是否独立。这一方法建立在因果关系的几个重要假设上,特别是模型中的“独立性假设”。独立性假设如果XXX是YYY的原因,则YYY的生成过程可以表达为YfXnYfXn,其中nnn是独立的噪声项,不依赖于XXX。这个假设意味着,若XXX确实是YYY的原因,那么在拟合模型YfXnYfXn后,残差(或噪声项)nnn与XXX应该是独立的。判别因果方向的步骤通过非线性回归拟合YfXnY。
2024-10-31 13:08:14
944
原创 深度学习之因果发现(二)Causal Generative Neural Networks(CGNN)
CGNN(因果生成神经网络)基于的是(Functional Causal Model, FCM),而不是传统的结构性因果模型(Structural Causal Model, SCM)。在论文中,CGNN采用生成神经网络来学习多变量因果机制,允许在没有显式函数限制的情况下表示复杂的因果关系。
2024-10-29 15:02:17
1726
原创 论文中文翻译:Learning Functional Causal Models with Generative Neural Networks(二)
“Learning Functional Causal Models with Generative Neural Networks”设 X=[X1,…,Xd]X = [X_1, \dots, X_d]X=[X1,…,Xd] 表示一组具有联合分布 PPP 的连续随机变量,并进一步假设 PPP 的联合密度函数 hhh 在 Rd\mathbb{R}^dRd 的一个紧凑子集上是连续且严格正的,而在其他地方为零。本节首先介绍如何使用生成神经网络对具有给定图结构的连续功能因果模型(FCMs)进行建模(4.1节),
2024-10-23 22:45:13
820
原创 论文中文翻译:Learning Functional Causal Models with Generative Neural Networks(一)
深度学习模型展示了非凡的预测能力,在图像分类(Krizhevsky et al., 2012)、语音识别(Hinton et al., 2012)、语言翻译(Cho et al., 2014)和强化学习(Silver et al., 2016)等方面打破了记录。然而,黑箱式的深度学习模型主要侧重于预测,几乎没有解释能力。更广泛地说,当前的机器学习范式无法避免将相关性误认为因果关系。
2024-10-23 16:01:46
1246
原创 深度学习之因果发现(一)Causal Generative Neural Networks(CGNN)
CGNN初始化因果图:假设所有可能的因果结构。生成神经网络建模:构建生成器,用神经网络模拟因果关系。评估生成数据:对生成的数据与实际数据进行对比,通过损失函数评估因果关系的可信度。选择最优因果图:通过最小化损失函数,选出最能解释数据的因果结构。
2024-10-22 22:14:36
1290
1
转载 Pandas基础
DataFrame是一个表格型的数据结构,它有一组序列,每列的数据可以为不同类型(NumPy数据组中数据要求为相同类型),它既有行索引,也有列索引。其一大特点是可以使用标签索引,方便简洁。在分析建模阶段,Pandas自动且明确的数据对齐特性,非常方便地使新的对象可以正确地与一组标签对齐,由此,Pandas就可以非常方便地将数据集进行拆分-重组操作。结果展示方面,我们都知道Matplotlib是个数据视图化的好工具,Pandas与Matplotlib搭配,不用复杂的代码,就可以生成多种多样的数据视图。
2023-10-09 18:52:58
70
1
原创 PyTorch-数据转换-Numpy,Tensor,tensor
与torch.Tensor()同级类似的还有torch.IntTensor(),torch.LongTensor(),torch.DoubleTensor(),分别为短整型、长整型、双精度浮点型(64位)。1)torch.Tensor是torch.empty和torch.tensor之间的一种混合,但是,当传入数据时,torch.Tensor使用全局默认dtype(FloatTensor),torch.tensor从数据中推断数据类型。三维及以上数组----张量。
2023-10-09 18:35:09
204
1
原创 自学笔记--PyTorch深度学习实践--梯度下降算法
当该点到达下方后,想继续沿正方向运动,但是由于斜率大于0,又会让它沿负方向运动,最终导致该局部点成为局部最优点。该点下降到水平方向,此时梯度为0,根据公式w=w-α*g(g为梯度,即斜率)可知w=w-0,将不会再发生移动。该点所处斜率大于0,为了寻找最优点应该朝负方向移动,所以取负号。损失值同上节,对w求导,过程不用多说,然后将该表达式代入原式。两者各有优点,(Mini)Batch梯度下降,抽取一组。当斜率小于0时,应朝正方向移动,取负号。首先对斜率进行求导展开,随机选取一个损失值计算。
2023-09-19 14:08:01
95
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅