“因果发现”的版本间的差异
第11行: | 第11行: | ||
=== 基于约束的因果发现方法 === | === 基于约束的因果发现方法 === | ||
+ | 基于约束的因果发现方法主要基于独立性和条件独立性检测判断变量之间的统计关系,并在一定的假设下先获得无向因果图。之后利用V-structure和一系列方向传播规则对因果图中的无向边进行方向传播。其经典方法包括PC<ref>Spirtes, P., Glymour, C. N., Scheines, R., & Heckerman, D. (2000). Causation, prediction, and search. MIT press.</ref>算法,能够处理隐变量(混淆变量)的FCI<ref>Spirtes, P., Meek, C., & Richardson, T. (1995, August). Causal inference in the presence of latent variables and selection bias. In Proceedings of the Eleventh conference on Uncertainty in artificial intelligence (pp. 499-506).</ref>算法,以及能够处理异构数据的CD-NOD<ref>Huang, B., Zhang, K., Zhang, J., Ramsey, J. D., Sanchez-Romero, R., Glymour, C., & Schölkopf, B. (2020). Causal Discovery from Heterogeneous/Nonstationary Data. J. Mach. Learn. Res., 21(89), 1-53.</ref>算法。 | ||
=== 基于评分的因果发现方法 === | === 基于评分的因果发现方法 === | ||
+ | 基于评分的方法通过对候选模型(即候选因果图)进行评分的方式,来选取评分最高的因果图作为结果。经典方法包括GES<ref>Chickering, D. M. (2002). Optimal structure identification with greedy search. Journal of machine learning research, 3(Nov), 507-554.</ref>以及一系列通过改变评分函数来适应不同任务的扩展方法,例如基于通用评分函数的因果发现方法<ref>Huang, B., Zhang, K., Lin, Y., Schölkopf, B., & Glymour, C. (2018, July). Generalized score functions for causal discovery. In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (pp. 1551-1560).</ref>。此外,对于实际情况中Faithfulness假设不满足的情景,Exact Search<ref>Ng, Ignavier, Yujia Zheng, Jiji Zhang, and Kun Zhang. "Reliable Causal Discovery with Improved Exact Search and Weaker Assumptions." ''Advances in Neural Information Processing Systems'' 34 (2021): 20308-20320.</ref>可提供可靠的马尔科夫等价类。 | ||
=== 基于约束性函数因果模型的因果发现方法 === | === 基于约束性函数因果模型的因果发现方法 === | ||
+ | 基于约束性函数因果模型的因果方法通过假设结果和原因之间的函数关系类别,从而判断其间的方向。经典方法包括线性非高斯无环模型<ref>Shimizu, S., Hoyer, P. O., Hyvärinen, A., Kerminen, A., & Jordan, M. (2006). A linear non-Gaussian acyclic model for causal discovery. Journal of Machine Learning Research, 7(10).</ref>,加性噪声模型<ref>Hoyer, P. O., Janzing, D., Mooij, J. M., Peters, J., & Schölkopf, B. (2008, December). Nonlinear causal discovery with additive noise models. In NIPS (Vol. 21, pp. 689-696).</ref>和后非线性模型<ref>Zhang, K., & Hyvärinen, A. (2009, June). On the Identifiability of the Post-Nonlinear Causal Model. In 25th Conference on Uncertainty in Artificial Intelligence (UAI 2009) (pp. 647-655). AUAI Press.</ref>。近期通过对混合函数进行限制从而得到非线性独立成分分析的可识别性的理论<ref>Zheng, Yujia, Ignavier Ng, and Kun Zhang. "On the Identifiability of Nonlinear ICA: Sparsity and Beyond." ''arXiv preprint arXiv:2206.07751'' (2022).</ref>也为通用的非线性的因果发现提供了新的方法。 | ||
=== 因果隐表征学习 === | === 因果隐表征学习 === | ||
+ | 因果隐表征学习专注于隐变量与观测变量间的关系以及隐变量间的关系,经典工作包括GIN<ref>Xie, Cai, Huang, Glymour, Hao, Zhang, "Generalized Independent Noise Condition for Estimating Linear Non-Gaussian Latent Variable Causal Graphs," NeurIPS 2020</ref>以及层级化隐变量学习<ref>Feng Xie, Biwei Huang, Zhengming Chen, Yangbo He, Zhi Geng, Kun Zhang, "Estimation of Linear Non-Gaussian Latent Hierarchical Structure," accepted to ''International Conference on Machine Learning (ICML) 2022''</ref>。 | ||
=== 因果发现工具:causal-learn === | === 因果发现工具:causal-learn === |
2022年7月10日 (日) 21:24的版本
简介
因果发现,即从纯观测数据中发现并获取因果关系,在近几十年来作为基础的数据分析方法在各个学科发挥着重要的作用[1]。
几乎所有的科学都是关于识别因果关系和支配它们的法律或规律性的。它们的规律。自十七世纪现代科学开始以来,有两种方法来发现因果关系:(1)操纵和改变系统中的某一些的特征,以观察其他特征是否发生变化;(2)观察系统特征的变化,而不进行操作。这两种方法都在十七世纪大放异彩,当时它们是互相交织在一起,就像今天一样。伊万杰里斯塔-托里切利操纵了站在一个装有水银的管子里的角度和形状,而管子中水银的高度没有变化。帕斯卡尔让人把托里切利设计的压力计抬到山上,以证明水银的高度确实随海拔高度而变化。伽利略曾从观测时间序列中确定了(定性的)木卫二卫星的轨道。开普勒从行星观测中得出了他的三大定律。牛顿则通过对太阳系的观察和一个单一的实验得出的引力定律奠定了现代物理学的基础。现代分子生物学是一个实验课题,但生物学的基础,在达尔文的《物种起源》中,只有一个实验,即种子的漂移。
发现因果关系的传统方法是使用干预措施或随机实验,这在很多情况下过于昂贵,过于耗时,甚至不可能。因此,通过分析纯粹的观察性数据来揭示因果信息,即所谓的因果发现,已经引起了人们的关注(Spirtes et al, 2000[2])。过去几十年 在过去的几十年中,我们看到了一系列跨学科的算法的进步 识别因果关系和效应大小的算法取得了一系列跨学科的进展。数据或混合实验和观察数据中识别因果关系和效应大小的算法取得了一系列跨学科的进展。这些发展有望使人们更好地利用适当的 "大数据"。它们已经被应用于基因组学、生态学、流行病学、空间物理学、临床医学、神经科学和许多其他领域,通常对其预测进行实验或准实验验证。在传统的因果关系研究中,当因果关系完全或部分已知时,用于识别因果效应或推断干预措施效果的算法,解决的是另一类问题。
基于约束的因果发现方法
基于约束的因果发现方法主要基于独立性和条件独立性检测判断变量之间的统计关系,并在一定的假设下先获得无向因果图。之后利用V-structure和一系列方向传播规则对因果图中的无向边进行方向传播。其经典方法包括PC[3]算法,能够处理隐变量(混淆变量)的FCI[4]算法,以及能够处理异构数据的CD-NOD[5]算法。
基于评分的因果发现方法
基于评分的方法通过对候选模型(即候选因果图)进行评分的方式,来选取评分最高的因果图作为结果。经典方法包括GES[6]以及一系列通过改变评分函数来适应不同任务的扩展方法,例如基于通用评分函数的因果发现方法[7]。此外,对于实际情况中Faithfulness假设不满足的情景,Exact Search[8]可提供可靠的马尔科夫等价类。
基于约束性函数因果模型的因果发现方法
基于约束性函数因果模型的因果方法通过假设结果和原因之间的函数关系类别,从而判断其间的方向。经典方法包括线性非高斯无环模型[9],加性噪声模型[10]和后非线性模型[11]。近期通过对混合函数进行限制从而得到非线性独立成分分析的可识别性的理论[12]也为通用的非线性的因果发现提供了新的方法。
因果隐表征学习
因果隐表征学习专注于隐变量与观测变量间的关系以及隐变量间的关系,经典工作包括GIN[13]以及层级化隐变量学习[14]。
因果发现工具:causal-learn
Causal-learn[15]是Tetrad[16] java代码的一个Python翻译和扩展。它提供了最新的因果发现方法的实现,以及简单而直观的API。
- ↑ Glymour, Clark, Kun Zhang, and Peter Spirtes. "Review of causal discovery methods based on graphical models." Frontiers in genetics 10 (2019): 524.
- ↑ Spirtes, Peter, et al. Causation, prediction, and search. MIT press, 2000.
- ↑ Spirtes, P., Glymour, C. N., Scheines, R., & Heckerman, D. (2000). Causation, prediction, and search. MIT press.
- ↑ Spirtes, P., Meek, C., & Richardson, T. (1995, August). Causal inference in the presence of latent variables and selection bias. In Proceedings of the Eleventh conference on Uncertainty in artificial intelligence (pp. 499-506).
- ↑ Huang, B., Zhang, K., Zhang, J., Ramsey, J. D., Sanchez-Romero, R., Glymour, C., & Schölkopf, B. (2020). Causal Discovery from Heterogeneous/Nonstationary Data. J. Mach. Learn. Res., 21(89), 1-53.
- ↑ Chickering, D. M. (2002). Optimal structure identification with greedy search. Journal of machine learning research, 3(Nov), 507-554.
- ↑ Huang, B., Zhang, K., Lin, Y., Schölkopf, B., & Glymour, C. (2018, July). Generalized score functions for causal discovery. In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (pp. 1551-1560).
- ↑ Ng, Ignavier, Yujia Zheng, Jiji Zhang, and Kun Zhang. "Reliable Causal Discovery with Improved Exact Search and Weaker Assumptions." Advances in Neural Information Processing Systems 34 (2021): 20308-20320.
- ↑ Shimizu, S., Hoyer, P. O., Hyvärinen, A., Kerminen, A., & Jordan, M. (2006). A linear non-Gaussian acyclic model for causal discovery. Journal of Machine Learning Research, 7(10).
- ↑ Hoyer, P. O., Janzing, D., Mooij, J. M., Peters, J., & Schölkopf, B. (2008, December). Nonlinear causal discovery with additive noise models. In NIPS (Vol. 21, pp. 689-696).
- ↑ Zhang, K., & Hyvärinen, A. (2009, June). On the Identifiability of the Post-Nonlinear Causal Model. In 25th Conference on Uncertainty in Artificial Intelligence (UAI 2009) (pp. 647-655). AUAI Press.
- ↑ Zheng, Yujia, Ignavier Ng, and Kun Zhang. "On the Identifiability of Nonlinear ICA: Sparsity and Beyond." arXiv preprint arXiv:2206.07751 (2022).
- ↑ Xie, Cai, Huang, Glymour, Hao, Zhang, "Generalized Independent Noise Condition for Estimating Linear Non-Gaussian Latent Variable Causal Graphs," NeurIPS 2020
- ↑ Feng Xie, Biwei Huang, Zhengming Chen, Yangbo He, Zhi Geng, Kun Zhang, "Estimation of Linear Non-Gaussian Latent Hierarchical Structure," accepted to International Conference on Machine Learning (ICML) 2022
- ↑ https://causal-learn.readthedocs.io/en/latest/
- ↑ https://github.com/cmu-phil/tetrad