更改

跳到导航 跳到搜索
无编辑摘要
第28行: 第28行:  
假设我们有两个源变量 <math>X_1, X_2 \in \{0,1\></math> 和一个目标变量 <math>Y=XOR(X_1,X_2)</math>。在这种情况下,总互信息 <math>I(X_1,X_2;Y)=1</math>,而个体互信息 <math>I(X_1;Y)=I(X_2;Y)=0</math>。也就是说,<math>X_1,X_2</math> 关于 <math>Y</math> 的相互作用产生了 协同 信息,而这无法用经典信息论量轻易捕捉到。
 
假设我们有两个源变量 <math>X_1, X_2 \in \{0,1\></math> 和一个目标变量 <math>Y=XOR(X_1,X_2)</math>。在这种情况下,总互信息 <math>I(X_1,X_2;Y)=1</math>,而个体互信息 <math>I(X_1;Y)=I(X_2;Y)=0</math>。也就是说,<math>X_1,X_2</math> 关于 <math>Y</math> 的相互作用产生了 协同 信息,而这无法用经典信息论量轻易捕捉到。
   −
部分信息分解进一步将源变量 <math>\{X_1,X_2\></math> 与目标变量 <math>Y</math> 之间的互信息分解为
+
部分信息分解进一步将源变量 <math>\{X_1,X_2\></math> 与目标变量 <math>Y</math> 之间的互信息分解为四个部分:
    
<math>I(X_1,X_2;Y)=\text{Unq}(X_1;Y \setminus X_2) + \text{Unq}(X_2;Y \setminus X_1) + \text{Syn}(X_1,X_2;Y) + \text{Red}(X_1,X_2;Y)</math>
 
<math>I(X_1,X_2;Y)=\text{Unq}(X_1;Y \setminus X_2) + \text{Unq}(X_2;Y \setminus X_1) + \text{Syn}(X_1,X_2;Y) + \text{Red}(X_1,X_2;Y)</math>
    
此处各个信息原子定义为
 
此处各个信息原子定义为
*<math>\text{Unq}(X_1;Y \setminus X_2)</math> <math>X_1</math> 具有的关于 <math>Y</math> 的“独特”信息,而 <math>X_2</math> 中没有这些信息
+
*<math>\text{Unq}(X_1;Y \setminus X_2)</math> 表示[[特有信息]],是指每一个微观态变量单独给宏观态提供的信息:<math>X_1</math> 具有的关于 <math>Y</math> 的“独特”信息,而 <math>X_2</math> 中没有这些信息。
*<math>\text{Syn}(X_1,X_2;Y)</math> <math>X_1</math> 和 <math>X_2</math> 相互作用中关于 <math>Y</math> 的“协同”信息
+
*<math>\text{Syn}(X_1,X_2;Y)</math> 表示[[协同信息]],是指所有微观态 <math>X_1</math> 和 <math>X_2</math> 联合在一起给宏观态 <math>Y</math> 提供的信息。
*<math>\text{Red}(X_1,X_2;Y)</math> <math>X_1</math> <math>X_2</math> 中关于 <math>Y</math> 的“冗余”信息
+
*<math>\text{Red}(X_1,X_2;Y)</math> 表示[[冗余信息]],是指两个微观态<math>X^1 </math><math>X^2 </math>重复地给宏观态 <math>Y</math> 的“冗余”信息。
 
[[文件:PID Venn.png|居中|缩略图]]与互信息的关系
 
[[文件:PID Venn.png|居中|缩略图]]与互信息的关系
   第53行: 第53行:     
[[文件:向下因果与因果解耦2.png|300x300像素|因果解耦与向下因果|链接=https://wiki.swarma.org/index.php/%E6%96%87%E4%BB%B6:%E5%90%91%E4%B8%8B%E5%9B%A0%E6%9E%9C%E4%B8%8E%E5%9B%A0%E6%9E%9C%E8%A7%A3%E8%80%A62.png]]
 
[[文件:向下因果与因果解耦2.png|300x300像素|因果解耦与向下因果|链接=https://wiki.swarma.org/index.php/%E6%96%87%E4%BB%B6:%E5%90%91%E4%B8%8B%E5%9B%A0%E6%9E%9C%E4%B8%8E%E5%9B%A0%E6%9E%9C%E8%A7%A3%E8%80%A62.png]]
=====部分信息分解=====
  −
该方法建立在Williams和Beer等<ref>Williams P L, Beer R D. Nonnegative decomposition of multivariate information[J]. arXiv preprint arXiv:10042515, 2010.</ref>提出的[[多元信息非负分解]]理论的基础之上,该文使用[[部分信息分解]](PID)将微观态和宏观态的互信息进行分解。
  −
  −
不失一般性,假设我们的微观态为<math>X(X^1,X^2) </math>,即它是一个二维的变量,宏观态为<math>V </math>,则二者之间的[[互信息]]可以被分解为四个部分:
  −
  −
<math>I(X^1,X^2;V)=Red(X^1,X^2;V)+Un(X^1;V│X^2 )+Un(X^2;V│X^1 )+Syn(X^1,X^2;V) </math>
  −
  −
其中<math>Red(X^1,X^2;V) </math>表示[[冗余信息]],是指两个微观态<math>X^1 </math>和<math>X^2 </math>重复地给宏观态<math>V </math>提供的信息;<math>Un(X^1;V│X^2 ) </math>和<math>Un(X^2;V│X^1 ) </math>表示[[特有信息]],是指每一个微观态变量单独给宏观态提供的信息;<math>Syn(X^1,X^2;V) </math>表示[[协同信息]],是指所有微观态<math>X </math>联合在一起给宏观态<math>V </math>提供的信息。
   
=====因果涌现定义=====
 
=====因果涌现定义=====
 
然而,PID框架只能分解关于多个源变量和一个目标变量之间的互信息,Rosas扩展了该框架,提出整合信息分解方法<math>\Phi ID </math><ref name=":0">P. A. Mediano, F. Rosas, R. L. Carhart-Harris, A. K. Seth, A. B. Barrett, Beyond integrated information: A taxonomy of information dynamics phenomena, arXiv preprint arXiv:1909.02297 (2019).</ref>来处理多个源变量和多个目标变量之间的互信息,还可以用来分解不同时刻间的互信息,作者基于分解后的信息提出了两种因果涌现的定义方法:
 
然而,PID框架只能分解关于多个源变量和一个目标变量之间的互信息,Rosas扩展了该框架,提出整合信息分解方法<math>\Phi ID </math><ref name=":0">P. A. Mediano, F. Rosas, R. L. Carhart-Harris, A. K. Seth, A. B. Barrett, Beyond integrated information: A taxonomy of information dynamics phenomena, arXiv preprint arXiv:1909.02297 (2019).</ref>来处理多个源变量和多个目标变量之间的互信息,还可以用来分解不同时刻间的互信息,作者基于分解后的信息提出了两种因果涌现的定义方法:
1,117

个编辑

导航菜单