更改

跳到导航 跳到搜索
第60行: 第60行:     
=== 最接近的可能世界因果关系 ===
 
=== 最接近的可能世界因果关系 ===
David Lewis传统上给出了一种因果关系的反事实理论,其中反事实被指定为<math>c</math>没有发生的最接近的可能世界<ref>David Lewis. Causation. ''Journal of Philosophy'', 70(17):556–567, 1973.</ref>。换句话说,如果我们想知道某个事件c是否导致了另一个事件e,我们可以考虑一个假想的世界,在这个世界中c没有发生,然后观察e是否仍然会发生。为了使这一想法形式化,我们需要在单纯的概率转换之外添加进一步的结构。也就是说,这种测量需要一种可能状态(或 “世界”)之间的距离概念。一种简单的方法是使用二进制状态标签,利用汉明距离(Hamming distance)<ref>Luciano Floridi. Information, possible worlds and the cooptation of scepticism. ''Synthese'', 175:63–88, 2010.Publisher: Springer.</ref>(将一个二进制字符串转换成另一个二进制字符串所需的比特翻转次数)来诱导度量。用公式可以表示为:通过使用汉明距离作为度量,我们可以在一个状态空间中诱导出一个度量空间。这样,我们就可以定义Lewis所说的“最近的可能世界”,即与当前世界在汉明距离上最接近的世界,
+
David Lewis传统上给出了一种因果关系的反事实理论,其中反事实被指定为<math>c</math>没有发生的最接近的可能世界<ref>David Lewis. Causation. ''Journal of Philosophy'', 70(17):556–567, 1973.</ref>。换句话说,如果我们想知道某个事件c是否导致了另一个事件e,我们可以考虑一个假想的世界,在这个世界中c没有发生,然后观察e是否仍然会发生。为了使这一想法形式化,我们需要在单纯的概率转换之外添加进一步的结构。也就是说,这种测量需要一种可能状态(或 “世界”)之间的距离概念。一种简单的方法是使用二进制状态标签,利用汉明距离(Hamming distance)<ref>Luciano Floridi. Information, possible worlds and the cooptation of scepticism. ''Synthese'', 175:63–88, 2010.Publisher: Springer.</ref>(将一个二进制字符串转换成另一个二进制字符串所需的比特翻转次数)来诱导度量。通过使用汉明距离作为度量,我们可以在一个状态空间中诱导出一个度量空间。这样,我们就可以定义Lewis所说的“最近的可能世界”,即与当前世界在汉明距离上最接近的世界,形式化公式为:<math>\bar{c}_{CPW}=\min_{c'}D_H(c,c')</math> ,<math>D_H(c,c')</math>为<math>c</math>和<math>c'</math>之间的汉明距离。有了这一点,我们就可以根据Lewis关于因果关系的论述来定义另一种测量方法,即从最接近的可能世界的反事实出发进行推理:
 +
 
 +
<math>CS_{Lewis CPW}=\frac{P(e\mid c)-P(e\mid\bar{c}_{CPW})}{P(e\mid c)}</math>
 +
 
 +
=== 位翻转措施 ===
 +
另一种依赖于状态间距离概念的测量方法是测量系统中最小变化所产生的差异量。例如,某个局部扰动造成的比特翻转结果。文献<ref>Bryan C. Daniels, Hyunju Kim, Douglas Moore, Siyu Zhou, Harrison B. Smith, Bradley Karas, Stuart A. Kauffman,and Sara I. Walker. Criticality Distinguishes the Ensemble of Biological Regulatory Networks. ''Physical Review Letters'', 121(13):138102, September 2018. Publisher: American Physical Society.</ref>中给出了这样一种测量方法:“当一个随机比特在时间 t 被翻转时,扰动状态与未扰动状态在时间 t + 1 之间的平均汉明距离”。虽然最初是在确定性假设下提出的,但我们在此将其扩展到非确定性系统,即:
 +
 
 +
<math>CS_{bit-flip}(e,c)=\frac{1}{N}\sum_{i}^{N}\sum_{e^{\prime}\in E}P(e^{\prime}\mid c_{[i]})D_{H}(e,e^{\prime})</math>
 +
 
 +
其中<math>c_{[i]}</math>对应于第<math>i^{th}</math>位被翻转的状态,(例如,如果 c = 000,则 c[3] = 001),<math>D_H(e,e')</math>为<math>e</math>和<math>e'</math>之间的汉明距离。
 +
 
 +
=== 实际因果关系和效果信息 ===
 +
最近,有人提出了一个利用信息论评估动态因果网络实际因果关系的框架[34]。根据这一框架,候选因果必须提高其效应的概率,与未指明因果时的概率相比较(我们再次看到与以前的测量方法相似之处)。中心量是效应信息,其值为:
 +
 
 +
<math>ei(c,e)=\log_2\frac{P(e\mid c)}{P(e\mid C)}=\log_2n[det(e,c)-deg(c)]</math>
 +
 
 +
请注意,效果信息实际上只是 CSSuppesII 的对数,这再次表明,随着后来的作者重新发现因果关系的测量方法,效果信息与 CSSuppesII 的对数是一致的。它也是之前在 [8] 中定义的 “有效性 ”的个体过渡贡献。因此,效应信息一方面是概率 Suppes 测量的比特测量版本,另一方面是简并性和确定性之间的非标准化差异。
 +
 
 +
=== 有效信息(EI) ===
 +
有效信息(EI)最早由 Giulio Tononi 和 Olaf Sporns 提出,作为因果相互作用的一种度量,其中使用了系统的随机扰动,以超越统计依赖性<ref>Giulio Tononi and Olaf Sporns. Measuring information integration. ''BMC Neuroscience'', page 20, 2003.</ref>。人们在没有参考先前用法的情况下重新发现了这一概念,并将其称为 “因果特异性”<ref>Paul E. Griffiths, Arnaud Pocheville, Brett Calcott, Karola Stotz, Hyunju Kim, and Rob Knight. Measuring Causal Specificity. ''Philosophy of Science'', 82(4):529–555, 2015. Publisher: The University of Chicago Press.</ref>。有效信息是系统所有可能因果关系中效应信息的期望值:
 +
 
 +
<math>EI=\sum_{e\in E,c\in C}P(e,c)ei(c,e)</math>
 +
 
 +
作为因果关系的衡量标准,有效信息反映了系统中原因产生效应的有效程度(确定性和唯一性),以及从效应中识别原因的选择性<ref>Erik P. Hoel, L. Albantakis, and G. Tononi. Quantifying causal emergence shows that macro can beat micro.P''roceedings of the National Academy of Sciences'', 110(49):19790–19795, December 2013.</ref>。有效信息是对 c 产生 e 的因果能力的评估--由效应信息衡量--适用于可能的因果之间的所有转换,同时考虑到对因果的最大熵干预分布。更简单地说,它是系统的确定性与简并性之间的非归一化差异。
 +
 
 
== 因果基元的形式化 ==
 
== 因果基元的形式化 ==
 
当我们讨论因果关系时,不应该简单地认为它只是一个简单的原因导致结果的关系。实际上,这种关系可以从两个不同的角度来看:一个是充分性,另一个是必要性。充分性是指一个原因是否总是能导致一个特定的结果,而必要性是指为了得到这个结果,是否需要这个特定的原因。我们可以把这两个概念看作是理解因果关系的基本元素,称为因果基元。在更广泛的意义上,充分性和必要性分别反映了因果关系之间的确定性和简并性。
 
当我们讨论因果关系时,不应该简单地认为它只是一个简单的原因导致结果的关系。实际上,这种关系可以从两个不同的角度来看:一个是充分性,另一个是必要性。充分性是指一个原因是否总是能导致一个特定的结果,而必要性是指为了得到这个结果,是否需要这个特定的原因。我们可以把这两个概念看作是理解因果关系的基本元素,称为因果基元。在更广泛的意义上,充分性和必要性分别反映了因果关系之间的确定性和简并性。
第160行: 第184行:  
|-
 
|-
 
|9
 
|9
|实际因果关系和结果信息
+
|实际因果关系和效果信息
 
|<math>ei(c,e)=\log_2\frac{P(e\mid c)}{P(e\mid C)}=\log_2n[det(e,c)-deg(c)]</math>
 
|<math>ei(c,e)=\log_2\frac{P(e\mid c)}{P(e\mid C)}=\log_2n[det(e,c)-deg(c)]</math>
 
|
 
|
275

个编辑

导航菜单