更改

跳到导航 跳到搜索
添加1,549字节 、 2024年6月2日 (星期日)
第334行: 第334行:  
下面,我们展示一个具体的因果涌现的例子:
 
下面,我们展示一个具体的因果涌现的例子:
   −
[[文件:Example1.png|815x815px|无框|居中]]
+
{| style="text-align: center;"
 +
|+马尔科夫链示例
 +
|-
 +
|
 +
<math>
 +
P_m=\begin{pmatrix}
 +
&1/3    &1/3          &1/3          &0& \\
 +
&1/3    &1/3          &1/3          &0& \\
 +
&1/3    &1/3          &1/3          &0& \\
 +
&0      &1            &0            &1& \\
 +
\end{pmatrix}
 +
</math>,   
 +
||
 +
<math>
 +
P_M=\begin{pmatrix}
 +
&1      &0            & \\
 +
&0      &1            & \\
 +
\end{pmatrix}
 +
</math>.
 +
|-
 +
|[math]\begin{aligned}&Det(P_m)=0.81\ bits,\\&Deg(P_m)=0\ bits,\\&EI(P_m)=0.81\ bits\end{aligned}[/math]||[math]\begin{aligned}&Det(P_M)=1\ bits,\\&Deg(P_M)=0\ bits,\\&EI(P_M)=1\ bits\end{aligned}[/math]
 +
|}
 +
 
 +
在这个例子中,微观态的转移矩阵是一个4*4的矩阵,其中前三个状态彼此以1/3的概率相互转移,这导致该转移矩阵具有较小的确定性,因此EI也不是很大为0.81。然而,当我们对该矩阵进行粗粒化,也就是把前三个状态合并为一个状态a,而最后一个状态转变为一个宏观态b。这样所有的原本三个微观态彼此之间的转移就变成了宏观态a到a内部的转移了。因此,转移概率矩阵也就变成了[math]P_M[/math]。在这个例子中,可以计算它的[[因果涌现度量]]为:
 +
 
 +
<math>
 +
CE=EI(P_M)-EI(P_m)=1-0.81=0.19\ bits
 +
</math>
 +
 
 +
即存在着0.19比特的因果涌现。
 +
 
 +
有时,我们也会根据归一化的EI来计算[[因果涌现度量]],即:
 +
<math>
 +
ce=Eff(P_M)-Eff(P_m)=1-0.405=0.595
 +
</math>
 +
由此可见,由于归一化的EI消除了系统尺寸的影响,因此因果涌现度量更大。
 +
 
 +
<!--[[文件:Example1.png|815x815px|无框|居中]]
    
上图展示了几种马尔科夫链的转移概率矩阵,其中(a)是确定性高,简并性低,所以整体eff比较高。(b)则是确定性和简并性都比较高,所以eff是0。(c)相比于(a)确定性更低,(d)也是确定性和简并性都较高导致eff较低,它们都可以通过同一种粗粒化策略(将前4个状态合并为一个状态)来得到(e)。此时(e)确定性很高,无简并性,所以(e)的eff比(c)(d)要高。
 
上图展示了几种马尔科夫链的转移概率矩阵,其中(a)是确定性高,简并性低,所以整体eff比较高。(b)则是确定性和简并性都比较高,所以eff是0。(c)相比于(a)确定性更低,(d)也是确定性和简并性都较高导致eff较低,它们都可以通过同一种粗粒化策略(将前4个状态合并为一个状态)来得到(e)。此时(e)确定性很高,无简并性,所以(e)的eff比(c)(d)要高。
 +
-->
    
==计算EI的源代码==
 
==计算EI的源代码==
346

个编辑

导航菜单