更改

跳到导航 跳到搜索
添加326字节 、 2024年6月10日 (星期一)
第883行: 第883行:     
有效信息这一指标最早出现在文献Tononi等人(2003)的文章中<ref name=tononi_2003 />,在这篇文章中,作者们定义了[[整合信息能力]]这一指标,并建立了[[整合信息理论]],这一理论后来演化成意识理论的一个重要分支。而[[整合信息能力]]这一指标的定义是以有效信息为基础的。
 
有效信息这一指标最早出现在文献Tononi等人(2003)的文章中<ref name=tononi_2003 />,在这篇文章中,作者们定义了[[整合信息能力]]这一指标,并建立了[[整合信息理论]],这一理论后来演化成意识理论的一个重要分支。而[[整合信息能力]]这一指标的定义是以有效信息为基础的。
 +
 +
===EI与Φ===
 
整合信息能力(或者叫整合程度)<math>\Phi</math>,可以被定义为系统一个子集两个互补部分之间可交换的有效信息最小值。假如系统是X,S是X的一个子集,它被划分为两个部分,分别是A和B。A、B之间以及它们跟X中其余的部分都存在着相互作用和因果关系。
 
整合信息能力(或者叫整合程度)<math>\Phi</math>,可以被定义为系统一个子集两个互补部分之间可交换的有效信息最小值。假如系统是X,S是X的一个子集,它被划分为两个部分,分别是A和B。A、B之间以及它们跟X中其余的部分都存在着相互作用和因果关系。
    
[[文件:OriginalEI.png|350x350px|整合信息论中的划分|替代=|缩略图]]
 
[[文件:OriginalEI.png|350x350px|整合信息论中的划分|替代=|缩略图]]
   −
这时,我们可以度量这些因果关系的强弱。首先,我们来计算从A到B的有效信息,即让A服从最大熵分布时,度量A和B之间的互信息。
+
这时,我们可以度量这些因果关系的强弱。首先,我们来计算从A到B的有效信息。即干预A,使其服从最大熵分布,然后度量A和B之间的互信息:
    
<math>
 
<math>
第906行: 第908行:     
这就是[[整合信息能力]]与有效信息的关系。
 
这就是[[整合信息能力]]与有效信息的关系。
 +
 +
===区别===
 +
 +
值得注意的是,与马尔科夫链的EI计算不同,这里的EI更多衡量的是系统中两个部分彼此之间的因果联系。而马尔科夫链的EI衡量的是同一个系统在不同两个时刻之间的因果关联强度。
    
==EI与其它因果度量指标==
 
==EI与其它因果度量指标==
第1,060行: 第1,066行:     
关于[[马尔科夫链的近似动力学可逆性]]的进一步讨论和说明,请参考词条:[[近似动力学可逆性]],以及论文:<ref name=zhang_reversibility/>
 
关于[[马尔科夫链的近似动力学可逆性]]的进一步讨论和说明,请参考词条:[[近似动力学可逆性]],以及论文:<ref name=zhang_reversibility/>
 +
 +
==广义的JS散度==
 +
==Jensen差距==
    
=参考文献=
 
=参考文献=
 
<references/>
 
<references/>
346

个编辑

导航菜单