更改

跳到导航 跳到搜索
添加675字节 、 2024年5月2日 (星期四)
无编辑摘要
第1行: 第1行:  
=历史渊源=
 
=历史渊源=
有效信息(effective informaion,EI)这个概念最早由Giulio Tononi等人在2003年提出,最初用来度量一个系统的整合程度。整合程度(或者叫整合信息能力)<math>\Phi</math>,可以被定义为系统一个子集两个互补部分之间可交换的有效信息最小值。假如系统是X,S是X的一个子集,它被划分为两个部分,分别是A和B。A、B之间以及它们跟X中其余的部分都存在着相互作用和因果关系。
+
有效信息(effective informaion,EI)这个概念最早由Giulio Tononi等人在2003年提出,最初用来度量一个系统的整合程度。当一个系统各个组分之间具有很强的关联时,可以说这个系统有很高的整合程度。EI便是用来度量这种关联。在同一时期,因果科学开始蓬勃发展。Tononi的学生Erik Hoel发现EI中[[Ising模型与最大熵分布|最大熵分布]]的设定使其与因果的概念不谋而合,所以EI本质上是在度量一种因果效应。实际上,对于任何一个随机过程,我们都可以用类似的办法来计算其动力学的因果强度。结合多尺度视角,Hoel借此发展出了一套[[因果涌现 Causal Emergence|因果涌现]]理论。
[[文件:OriginalEI.png|缩略图]]
  −
 
  −
这时,我们可以度量这些因果关系的强弱。首先,我们来计算从A到B的有效信息,即让A服从最大熵分布时,度量A和B之间的互信息。
  −
 
  −
<math>
  −
EI(A\rightarrow B) = MI(A^{H^{max}}: B) 
  −
</math>
  −
 
  −
如果A的不同状态会导致B有很不一样的变化,这个EI值会很高;反之,如果无论A怎么变,B都受到很少的影响,那么EI就会很低。显然,这种度量是有方向的,A对B的EI和B对A的EI可以很不同。我们可以把这两个方向的EI加在一起,得到S在某一个划分下的EI大小。
  −
 
  −
<math>
  −
EI(A\leftrightarrow B) = EI(A\rightarrow B) + EI(B\rightarrow A)
  −
</math>
  −
 
  −
遍历各种划分,如果存在某一个划分,使得EI为0,说明这个S可以被看做是两个因果独立的部分,所以整合程度也应该是0。从这种特殊例子中我们可以看出,我们应该关注所有划分中有效信息最小的那个。当然,不同划分会导致A和B的状态空间就不一样,所以应该做一个归一化处理,即除以A和B最大熵值中较小的那一个。于是,我们可以有一个最小信息划分(minimum information bipartition,MIB)。整合程度<math>\Phi</math>定义如下:
  −
 
  −
<math>
  −
\Phi(S) = EI(MIB(S))
  −
</math>
      
=Do形式及解释=
 
=Do形式及解释=
第72行: 第53行:  
关键在于理解它们的物理含义。确定性指的是,已知当前时刻状态概率分布,对未来可能状态的判断有多大的把握;而简并性指的是,已知当前的状态,追溯历史,我们能有多大确定性做出判断。如果有状态在动力学过程中发生简并,我们回溯历史时能运用的信息就会变少。当一个系统背后的动力学确定性高,同时简并性低时,说明这是一个具有明显因果效应的动力学。这就是EI本身的物理含义。
 
关键在于理解它们的物理含义。确定性指的是,已知当前时刻状态概率分布,对未来可能状态的判断有多大的把握;而简并性指的是,已知当前的状态,追溯历史,我们能有多大确定性做出判断。如果有状态在动力学过程中发生简并,我们回溯历史时能运用的信息就会变少。当一个系统背后的动力学确定性高,同时简并性低时,说明这是一个具有明显因果效应的动力学。这就是EI本身的物理含义。
   −
[[文件:Example1.png|无框]]
+
[[文件:Example1.png|有框|居中]]
    
上图展示了几种TPM,其中(a)是确定性高,简并性低,所以整体eff比较高。(b)则是确定性和简并性都比较高,所以eff是0。(c)相比于(a)确定性更低,(d)也是确定性和简并性都较高导致eff较低,它们都可以通过同一种粗粒化策略(将前4个状态合并为一个状态)来得到(e)。此时(e)确定性很高,无简并性,所以(e)的eff比(c)(d)要高。
 
上图展示了几种TPM,其中(a)是确定性高,简并性低,所以整体eff比较高。(b)则是确定性和简并性都比较高,所以eff是0。(c)相比于(a)确定性更低,(d)也是确定性和简并性都较高导致eff较低,它们都可以通过同一种粗粒化策略(将前4个状态合并为一个状态)来得到(e)。此时(e)确定性很高,无简并性,所以(e)的eff比(c)(d)要高。
第78行: 第59行:  
=连续系统的EI=
 
=连续系统的EI=
 
见其他词条
 
见其他词条
 +
 +
=整合信息论中的EI=
 +
整合程度(或者叫整合信息能力)<math>\Phi</math>,可以被定义为系统一个子集两个互补部分之间可交换的有效信息最小值。假如系统是X,S是X的一个子集,它被划分为两个部分,分别是A和B。A、B之间以及它们跟X中其余的部分都存在着相互作用和因果关系。
 +
 +
[[文件:OriginalEI.png|0.01px|无框|居中|整合信息论中的划分]]
 +
 +
这时,我们可以度量这些因果关系的强弱。首先,我们来计算从A到B的有效信息,即让A服从最大熵分布时,度量A和B之间的互信息。
 +
 +
<math>
 +
EI(A\rightarrow B) = MI(A^{H^{max}}: B) 
 +
</math>
 +
 +
如果A的不同状态会导致B有很不一样的变化,这个EI值会很高;反之,如果无论A怎么变,B都受到很少的影响,那么EI就会很低。显然,这种度量是有方向的,A对B的EI和B对A的EI可以很不同。我们可以把这两个方向的EI加在一起,得到S在某一个划分下的EI大小。
 +
 +
<math>
 +
EI(A\leftrightarrow B) = EI(A\rightarrow B) + EI(B\rightarrow A)
 +
</math>
 +
 +
遍历各种划分,如果存在某一个划分,使得EI为0,说明这个S可以被看做是两个因果独立的部分,所以整合程度也应该是0。从这种特殊例子中我们可以看出,我们应该关注所有划分中有效信息最小的那个。当然,不同划分会导致A和B的状态空间就不一样,所以应该做一个归一化处理,即除以A和B最大熵值中较小的那一个。于是,我们可以有一个最小信息划分(minimum information bipartition,MIB)。整合程度<math>\Phi</math>定义如下:
 +
 +
<math>
 +
\Phi(S) = EI(MIB(S))
 +
</math>
    
=代码=
 
=代码=
207

个编辑

导航菜单