第1行: |
第1行: |
− | 因果度量是用于识别和量化变量之间因果联系的方法和技术。不同领域的科学家在选择因果度量方法时可能存在主观偏好,对是否存在因果关系的判定存在主观性。但这些因果度量方法在许多条件下表现却非常相似,对相同的基本属性也非常敏感,并数学上存在相似性或一致性,这些相同的基本属性可以称作 “因果基元”。研究者们不再需要找到一个必须达成普遍共识的唯一因果关系衡量标准,而是可以通过关注这些相同的基本属性继续理解其他因果现象。
| + | 因果度量是通过科学方法和统计模型推断变量之间的因果关系,并衡量变量之间[[因果效应]]大小的方法。不同领域的科学家在选择因果度量方法时可能存在主观偏好,对是否存在因果关系的判定存在主观性。但这些因果度量方法在许多条件下在数学描述上表现却非常相似,具有相同的基本属性,这些相同的基本属性可以称作 “因果基元”。研究者们不再需要找到一个必须达成普遍共识的唯一因果关系衡量标准,而是可以通过关注这些相同的基本属性继续理解其他因果现象。 |
| ==历史渊源== | | ==历史渊源== |
− | John Locke在他1690年发表的著作《人类理解论》中首次正式提出了因和果的概念:把产生观念的事物叫做原因,把所产生的东西叫做结果。在18世纪David Hume进一步发展了这个概念,提出因果不是事实之间的概念,而是经验之间的习惯性联想。他强调判断因果关系的三条准则:空间邻近性、时间连续性、恒常连结性。20世纪70年代David Lewis推广了David Hume对因果关系的定义,提出了判断因果关系的反事实推理法:“如果原因发生了,结果就会发生;如果原因不发生,结果就不会发生。”和这差不多的时间Ellery Eells和Patrick Suppes等人从概率论的角度给出了因果关系的定义,原因c成为结果e的原因的一个条件是,在c存在的情况下e的概率必须高于在c不存在的情况下e的概率。20世纪末Judea Pearl基于概率论和反事实的概念提出了结构因果模型和潜在结果模型,将因果关系划分为关联、干预、反事实三个层级,使得因果推理更加精确和实用。进入21世纪初Giulio Tononi 和 Olaf Sporns 提出有效信息 (EI)的概念,它可以用来衡量一个马尔科夫动力学的因果效应强度。最近的2022年Erik hoel发表的一篇论文中总结了各类因果度量方法中存在的相同基本属性,发现在大多数因果度量方法中都存在因果涌现。 | + | John Locke在他1690年发表的著作《人类理解论》中首次正式提出了因和果的概念:把产生观念的事物叫做原因,把所产生的东西叫做结果。在18世纪David Hume进一步发展了这个概念<ref name=":1" />,提出因果不是事实之间的概念,而是经验之间的习惯性联想。他强调判断因果关系的三条准则:空间邻近性、时间连续性、恒常连结性。20世纪70年代David Lewis推广了David Hume对因果关系的定义<ref name=":2" />,提出了判断因果关系的反事实推理法:“如果原因发生了,结果就会发生;如果原因不发生,结果就不会发生。”和这差不多的时间Ellery Eells和Patrick Suppes等人从概率论<ref name=":3" /><ref name=":4" />的角度给出了因果关系的定义,原因c成为结果e的原因的一个条件是,在c存在的情况下e的概率必须高于在c不存在的情况下e的概率。20世纪末Judea Pearl基于概率论和反事实的概念提出了结构因果模型和潜在结果模型,将因果关系划分为关联、干预、反事实三个层级,使得因果推理更加精确和实用<ref name=":5" />。进入21世纪初Giulio Tononi 和 Olaf Sporns 提出有效信息 (EI)的概念<ref name=":6" />,它可以用来衡量一个马尔科夫动力学的因果效应强度。最近的2022年Erik hoel发表的一篇论文<ref>Comolatti, R., & Hoel, E. (2022). Causal emergence is widespread across measures of causation. ''arXiv:2202.01854 [physics.soc-ph]''. <nowiki>https://doi.org/10.48550/arXiv.2202.01854</nowiki></ref>中总结了各类因果度量方法中存在的相同基本属性。 |
| ==因果关系的形式化== | | ==因果关系的形式化== |
− | 在一个给定的空间<math>Ω</math>,即所有可能发生的情况的集合,在这个空间中,事件的单个原因记作<math>c</math>,单个结果记作<math>e</math>,,一组原因记作<math>C</math> ,一组结果记作<math>E</math>,其中假定<math>c</math>在<math>e</math>之前,并满足<math>c∈Ω 、 e∈Ω 、C ⊆ Ω 、 E ⊆ Ω</math> 。为了衡量因果关系,把没有发生<math>c</math>的情况下获得<math>e</math>的概率写成<math>P (e|C\c)</math>,其中<math>P</math>代表概率,<math>C\c</math>代表<math>c</math>的补集,指的是在<math>C</math>中的任何原因都可能产生<math>e</math>的情况下,除了<math>c</math>之外,<math>e</math>的概率,用公式表示为
| + | 为了归纳各个因果度量方法之间的相似性,需要用一套形式化的方法描述它们,所以我们需要先给出因果关系的形式化的方法:在一个给定的空间<math>Ω</math>,即所有可能发生的情况的集合,在这个空间中,事件的单个原因记作<math>c</math>,单个结果记作<math>e</math>,,一组原因记作<math>C</math> ,一组结果记作<math>E</math>,其中假定<math>c</math>在<math>e</math>之前,并满足<math>c∈Ω 、 e∈Ω 、C ⊆ Ω 、 E ⊆ Ω</math> 。为了衡量因果关系,把没有发生<math>c</math>的情况下获得<math>e</math>的概率写成<math>P (e|C\c)</math>,其中<math>P</math>代表概率,<math>C\c</math>代表<math>c</math>的补集,指的是在<math>C</math>中的任何原因都可能产生<math>e</math>的情况下,除了<math>c</math>之外,<math>e</math>的概率,用公式表示为 |
| | | |
| <math>P(e\mid C)=\sum_{c\in C}P(c)P(e\mid c)</math> | | <math>P(e\mid C)=\sum_{c\in C}P(c)P(e\mid c)</math> |
第10行: |
第10行: |
| | | |
| === David Hume的恒常连结 === | | === David Hume的恒常连结 === |
− | David Hume将因果定义为“一个对象,后面跟着另一个对象,并且所有与第一个对象相似的对象后面跟着与第二个对象相似的对象”<ref>David Hume. ''An Enquiry concerning Human Understanding''. 1748.</ref>。换句话说,因果关系源于事件之间的这种连续规律性模式<ref>Phyllis Illari and Federica Russo. ''Causality: Philosophical Theory meets Scientific Practice''. Oxford University | + | David Hume将因果定义为“一个对象,后面跟着另一个对象,并且所有与第一个对象相似的对象后面跟着与第二个对象相似的对象”<ref name=":1">David Hume. ''An Enquiry concerning Human Understanding''. 1748.</ref>。换句话说,因果关系源于事件之间的这种连续规律性模式<ref>Phyllis Illari and Federica Russo. ''Causality: Philosophical Theory meets Scientific Practice''. Oxford University |
| | | |
− | Press, Oxford, New York, December 2014.</ref>。 总体而言,事件 c 后面跟着事件 e 的“恒常连结”会让我们预期一旦观察到 c,就会发生 e,因此推断 c 是 e 的原因。在这里,我们遵循 Judea Pearl 的观点,他将David Hume的连续规律性概念解释为我们今天所说的事件之间的相关性<ref>Judea Pearl. ''Causality.'' Cambridge University Press, Cambridge, 2 edition, 2009.</ref>。这可以形式化为候选原因 c 和结果 e 之间观察到的统计协方差: | + | Press, Oxford, New York, December 2014.</ref>。 总体而言,事件 c 后面跟着事件 e 的“恒常连结”会让我们预期一旦观察到 c,就会发生 e,因此推断 c 是 e 的原因。在这里,我们遵循 Judea Pearl 的观点,他将David Hume的连续规律性概念解释为我们今天所说的事件之间的相关性<ref name=":5">Judea Pearl. ''Causality.'' Cambridge University Press, Cambridge, 2 edition, 2009.</ref>。这可以形式化为候选原因 c 和结果 e 之间观察到的统计协方差: |
| | | |
| <math>\operatorname{Cov}(X, Y)=E(X Y)-E(X) E(Y)</math> | | <math>\operatorname{Cov}(X, Y)=E(X Y)-E(X) E(Y)</math> |
第29行: |
第29行: |
| | | |
| === Eells 的因果关系度量是概率提升 === | | === Eells 的因果关系度量是概率提升 === |
− | Ellery Eells提出<ref>Ellery Eells. ''Probabilistic Causality''. Cambridge University Press, 1991.</ref>,<math>c</math>成为<math>e</math>的原因的一个条件是,<math>c</math>存在时<math>e</math>发生的概率必须高于其不存在时<math>e</math>发生的概率,这可以用因果强度的度量形式化为两个量之间的差: | + | Ellery Eells提出<ref name=":3">Ellery Eells. ''Probabilistic Causality''. Cambridge University Press, 1991.</ref>,<math>c</math>成为<math>e</math>的原因的一个条件是,<math>c</math>存在时<math>e</math>发生的概率必须高于其不存在时<math>e</math>发生的概率,这可以用因果强度的度量形式化为两个量之间的差: |
| | | |
| <math>CS_{Eells}=P(e\mid c)-P(e\mid C\backslash c)</math> | | <math>CS_{Eells}=P(e\mid c)-P(e\mid C\backslash c)</math> |
| | | |
| === Suppes将因果关系度量为概率提升 === | | === Suppes将因果关系度量为概率提升 === |
− | 哲学家和科学家Patrick Suppes将因果关系定义为概率增加<ref>Patrick Suppes. ''A Probabilistic Theory of Causality''. Amsterdam: North-Holland Pub. Co., 1968.</ref>。用我们的形式化方法可以表示为: | + | 哲学家和科学家Patrick Suppes将因果关系定义为概率增加<ref name=":4">Patrick Suppes. ''A Probabilistic Theory of Causality''. Amsterdam: North-Holland Pub. Co., 1968.</ref>。用我们的形式化方法可以表示为: |
| | | |
| <math>CS_{Suppes}(c,e)=P(e\mid c)-P(e\mid C)</math> | | <math>CS_{Suppes}(c,e)=P(e\mid c)-P(e\mid C)</math> |
第50行: |
第50行: |
| | | |
| === Lewis的反事实因果理论 === | | === Lewis的反事实因果理论 === |
− | David Lewis基于反事实(counterfactuals)对因果关系进行了另一种实质性的、有影响力的解释<ref>David Lewis. Causation. ''Journal of Philosophy'', 70(17):556–567, 1973.</ref>。Lewis给因果关系下的定义是:如果给定事件的<math>c</math>和<math>e</math>都发生了,当且仅当“<math>c</math>没有发生,那么<math>e</math>就不会发生”这一情况成立时,<math>c</math>才是<math>e</math>的原因。刘易斯还把他的理论扩展到了 “不确定的世界”,在这种世界里<ref>David Lewis. Postscripts to ’Causation’. ''Philosophical Papers Vol. Ii'', 1986.</ref>,<math>e</math>可能只是以一定的概率跟随<math>c</math>发生。在这种情况下,<math>c</math>仍然可以被视为<math>e</math>的原因,但这种因果关系是概率性的,而不是确定性的。按照Fitelson和Hitchcock提出的一种使用概率来度量因果强度的方法<ref name=":0">Branden Fitelson and Christopher Hitchcock. Probabilistic Measures of Causal Strength. ''Causality in the Sciences'',January 2010.</ref>,,我们将Lewis的因果强度正式表述为比率:<math>\frac{P(e\mid c)}{P(e\mid C\setminus c)}</math>。这个定义也被称为 “相对风险”:“它是指有 c 时发生 e 的风险与没有 c 时发生 e 的风险的比较”<ref name=":0" />。利用<math>p/q\to(p-q)/p</math>映射,可以对这一指标进行归一化处理,得到一个在-1到1范围内的度量: | + | David Lewis基于反事实(counterfactuals)对因果关系进行了另一种实质性的、有影响力的解释<ref name=":2">David Lewis. Causation. ''Journal of Philosophy'', 70(17):556–567, 1973.</ref>。Lewis给因果关系下的定义是:如果给定事件的<math>c</math>和<math>e</math>都发生了,当且仅当“<math>c</math>没有发生,那么<math>e</math>就不会发生”这一情况成立时,<math>c</math>才是<math>e</math>的原因。刘易斯还把他的理论扩展到了 “不确定的世界”,在这种世界里<ref>David Lewis. Postscripts to ’Causation’. ''Philosophical Papers Vol. Ii'', 1986.</ref>,<math>e</math>可能只是以一定的概率跟随<math>c</math>发生。在这种情况下,<math>c</math>仍然可以被视为<math>e</math>的原因,但这种因果关系是概率性的,而不是确定性的。按照Fitelson和Hitchcock提出的一种使用概率来度量因果强度的方法<ref name=":0">Branden Fitelson and Christopher Hitchcock. Probabilistic Measures of Causal Strength. ''Causality in the Sciences'',January 2010.</ref>,,我们将Lewis的因果强度正式表述为比率:<math>\frac{P(e\mid c)}{P(e\mid C\setminus c)}</math>。这个定义也被称为 “相对风险”:“它是指有 c 时发生 e 的风险与没有 c 时发生 e 的风险的比较”<ref name=":0" />。利用<math>p/q\to(p-q)/p</math>映射,可以对这一指标进行归一化处理,得到一个在-1到1范围内的度量: |
| | | |
| <math>CS_{Lewis}(c,e)=\frac{P(e\mid c)-P(e\mid C\backslash c)}{P(e\mid c)}</math> | | <math>CS_{Lewis}(c,e)=\frac{P(e\mid c)-P(e\mid C\backslash c)}{P(e\mid c)}</math> |
第83行: |
第83行: |
| | | |
| === 有效信息(EI) === | | === 有效信息(EI) === |
− | 有效信息(EI)最早由 Giulio Tononi 和 Olaf Sporns 提出,作为因果相互作用的一种度量,其中使用了系统的随机扰动,以超越统计依赖性<ref>Giulio Tononi and Olaf Sporns. Measuring information integration. ''BMC Neuroscience'', page 20, 2003.</ref>。人们在没有参考先前用法的情况下重新发现了这一概念,并将其称为 “因果特异性”<ref>Paul E. Griffiths, Arnaud Pocheville, Brett Calcott, Karola Stotz, Hyunju Kim, and Rob Knight. Measuring Causal Specificity. ''Philosophy of Science'', 82(4):529–555, 2015. Publisher: The University of Chicago Press.</ref>。有效信息是系统所有可能因果关系中效应信息的期望值: | + | 有效信息(EI)最早由 Giulio Tononi 和 Olaf Sporns 提出,作为因果相互作用的一种度量,其中使用了系统的随机扰动,以超越统计依赖性<ref name=":6">Giulio Tononi and Olaf Sporns. Measuring information integration. ''BMC Neuroscience'', page 20, 2003.</ref>。人们在没有参考先前用法的情况下重新发现了这一概念,并将其称为 “因果特异性”<ref>Paul E. Griffiths, Arnaud Pocheville, Brett Calcott, Karola Stotz, Hyunju Kim, and Rob Knight. Measuring Causal Specificity. ''Philosophy of Science'', 82(4):529–555, 2015. Publisher: The University of Chicago Press.</ref>。有效信息是系统所有可能因果关系中效应信息的期望值: |
| | | |
| <math>EI=\sum_{e\in E,c\in C}P(e,c)ei(c,e)</math> | | <math>EI=\sum_{e\in E,c\in C}P(e,c)ei(c,e)</math> |