更改

跳到导航 跳到搜索
删除190字节 、 2024年8月19日 (星期一)
第54行: 第54行:  
对于如何定义因果涌现是一个关键问题,有几个代表性工作,分别是Hoel等<ref name=":0" /><ref name=":1" />提出的基于[[有效信息]]的方法、Rosas等<ref name=":5">Rosas F E, Mediano P A, Jensen H J, et al. Reconciling emergences: An information-theoretic approach to identify causal emergence in multivariate data[J]. PLoS computational biology, 2020, 16(12): e1008289.</ref>提出的基于信息分解的方法、张江等人<ref name=":2" />基于奇异值分解提出了一套新的因果涌现理论以及一些其他的理论。
 
对于如何定义因果涌现是一个关键问题,有几个代表性工作,分别是Hoel等<ref name=":0" /><ref name=":1" />提出的基于[[有效信息]]的方法、Rosas等<ref name=":5">Rosas F E, Mediano P A, Jensen H J, et al. Reconciling emergences: An information-theoretic approach to identify causal emergence in multivariate data[J]. PLoS computational biology, 2020, 16(12): e1008289.</ref>提出的基于信息分解的方法、张江等人<ref name=":2" />基于奇异值分解提出了一套新的因果涌现理论以及一些其他的理论。
 
====Erik Hoel的因果涌现理论====
 
====Erik Hoel的因果涌现理论====
Hoel等<ref name=":0" /><ref name=":1" />最早提出因果涌现理论,右图是对该理论框架的一个抽象,其中,横坐标表示时间尺度,纵坐标表示空间尺度。该框架可以看成是一个对同一个系统动力学在微观和宏观两种尺度上的描述。由于微观态可能具有很大的噪音,导致微观动力学的[[因果性]]比较弱,所以因果涌现理论试图对每一个时刻的微观态进行合理的粗粒化,从而得到相应的噪音更小的宏观态,从而能使得宏观动力学的因果性更强。所谓的因果涌现,就是指当我们对微观态进行粗粒化,宏观态动力学的[[有效信息]]量会增加这一现象,并且宏观态与微观态[[有效信息]]之差被定义为因果涌现的强度。如下图所示:
+
Hoel等<ref name=":0" /><ref name=":1" />最早提出因果涌现理论,下图是对该理论框架的一个抽象,其中,横坐标表示时间,纵坐标表示尺度(Scale)。该框架可以看成是对同一个动力系统在微观和宏观两种尺度上的描述。其中,[math]f_m[/math]为微观动力学,[math]f_M[/math]为宏观动力学,二者通过一个粗粒化函数[math]\phi[/math]相连。在一般离散状态的马尔科夫动力系统中,[math]f_m[/math]和[math]f_M[/math]都是马尔科夫链,对[math]f_m[/math]进行[[马尔科夫链的简化]],就可以得到[math]f_M[/math]。[math]\mathcal{J}[/math]为[[有效信息]](<math> EI </math>)的度量。由于微观态可能具有更大的随机性,这导致微观动力学的[[因果性]]比较弱,所以通过对每一个时刻的微观态进行合理的粗粒化,就有可能得到因果性更强的宏观态。所谓的因果涌现,就是指当我们对微观态进行粗粒化的时候,宏观态动力学的[[有效信息]]量会增加这一现象,并且宏观态与微观态[[有效信息]]之差被定义为因果涌现的强度。
    
[[文件:因果涌现.png|因果涌现理论框架|alt=因果涌现理论抽象框架|居中|368x368像素|缩略图]]
 
[[文件:因果涌现.png|因果涌现理论框架|alt=因果涌现理论抽象框架|居中|368x368像素|缩略图]]
   −
其中,[math]f_m[/math]为微观动力学,[math]f_M[/math]为宏观动力学,[math]\phi[/math]为粗粒化函数,[math]\mathcal{J}[/math]为[[有效信息]](<math> EI </math>)的度量。[[有效信息]]最早由[[Tononi]]等人在[[整合信息论]]的研究中提出<ref>Tononi G, Sporns O. Measuring information integration[J]. BMC neuroscience, 2003, 41-20.</ref>。在因果涌现研究中,[[Erik Hoel]]等人将这种[[因果效应度量]]指标用于量化一个[[因果机制]]的因果性强弱。具体来说,使用干预操作对自变量做[[干预]],并考察在这一干预下,因和果变量之间的[[互信息]],这种互信息就是[[有效信息]],即因果机制的因果效应度量。
     −
在[[马尔科夫链]]中,任意时刻的状态变量[math]X_t[/math]都可以看作是原因,而下一时刻的状态变量[math]X_{t+1}[/math]就可以看作是结果,这样[[马尔科夫链]]的[[状态转移矩阵]]就是它的[[因果机制]]。因此,针对[[马尔科夫链]]的<math> EI </math>的计算公式如下所示:
+
 
 +
 
 +
[[有效信息]]最早由[[Tononi]]等人在[[整合信息论]]的研究中提出<ref>Tononi G, Sporns O. Measuring information integration[J]. BMC neuroscience, 2003, 41-20.</ref>。在因果涌现研究中,[[Erik Hoel]]等人将这种[[因果效应度量]]指标用于量化一个[[因果机制]]的因果性强弱。具体来说,使用干预操作对自变量做[[干预]],并考察在这一干预下,因和果变量之间的[[互信息]],这种互信息就是[[有效信息]],即因果机制的因果效应度量。
 +
 
 +
在[[马尔科夫链]]中,任意时刻的状态变量[math]X_t[/math]都可以看作是原因,而下一时刻的状态变量[math]X_{t+1}[/math]就可以看作是结果,这样[[马尔科夫链]]的[[状态转移矩阵]]就是它的[[因果机制]]。因此,针对[[马尔科夫链]]的<math>EI</math>的计算公式如下所示:
    
<math>
 
<math>
 
\begin{aligned}
 
\begin{aligned}
EI(S) &= I(X_t,X_{t+1}|do(X_t)\sim U(\mathcal{X}))=I(\tilde{X}_t,\tilde{X}_{t+1}) \\  
+
EI(f) &= I(X_t,X_{t+1}|do(X_t)\sim U(\mathcal{X}))=I(\tilde{X}_t,\tilde{X}_{t+1}) \\  
 
&= \frac{1}{N}\sum^N_{i=1}\sum^N_{j=1}p_{ij}\log\frac{N\cdot p_{ij}}{\sum_{k=1}^N  p_{kj}}
 
&= \frac{1}{N}\sum^N_{i=1}\sum^N_{j=1}p_{ij}\log\frac{N\cdot p_{ij}}{\sum_{k=1}^N  p_{kj}}
 
\end{aligned}
 
\end{aligned}
 
</math>
 
</math>
   −
其中[math]U(\mathcal{X})[/math]表示状态变量[math]X_t[/math]取值空间[math]\mathcal{X}[/math]上的均匀分布。<math>\tilde{X}_t,\tilde{X}_{t+1}</math>分别为把t时刻的[math]X_t[/math][[干预]]为[[均匀分布]]后,前后两个时刻的状态。<math>p_{ij}</math>为第i个状态转移到第j个状态的转移概率。从这个式子,不难看出,EI仅仅是概率转移矩阵[math]P[/math]的函数。进行干预操作是为了使得有效信息能客观衡量动力学的因果特性而不受原始输入数据的分布影响。
+
其中f表示一个马尔科夫链的状态转移矩阵,[math]U(\mathcal{X})[/math]表示状态变量[math]X_t[/math]取值空间[math]\mathcal{X}[/math]上的均匀分布。<math>\tilde{X}_t,\tilde{X}_{t+1}</math>分别为把t时刻的[math]X_t[/math][[干预]]为[[均匀分布]]后,前后两个时刻的状态。<math>p_{ij}</math>为第i个状态转移到第j个状态的转移概率。从这个式子,不难看出,EI仅仅是概率转移矩阵[math]P[/math]的函数。进行干预操作是为了使得有效信息能客观衡量动力学的因果特性而不受原始输入数据的分布影响。
   −
为了消除状态空间大小对有效信息的影响,使得比较不同的尺度下的有效信息是有意义的,作者定义了一个归一化指标有效系数来衡量动力学的因果性强弱,有效系数和有效信息有如下关系:
+
有效信息可以拆解为[[确定性]]和[[简并性]]两部分,还可以通过引入归一化从而消除状态空间规模的影响。关于有效信息的详细信息请参看[[有效信息]]。
   −
<math>Eff(S)=\frac{EI(S)}{\log_2 N} </math>
+
我们可以通过比较系统中宏微观动力学的[[有效信息]]大小来判断因果涌现的发生:
   −
其中<math>N</math>表示系统的状态个数,<math>Eff(S)\in[0,1] </math>。此外,有效系数可以进一步分解为[[确定性]]和[[简并性]],确定性和简并性的计算公式见[[有效信息]]词条:
+
<math>
 +
CE=EI\left ( f_M \right )-EI\left (f_m \right )
 +
</math>
   −
可以通过比较系统中宏微观动力学的[[有效信息]]大小来判断因果涌现的发生(<math>CE=EI\left ( S_M \right )-EI\left (S_m \right )</math>,其中<math>S_M</math>和<math>S_m</math>分别表示宏微观动力学)。如果通过有效的粗粒化使得宏观动力学的有效信息大于微观动力学的有效信息(<math>EI\left ( S_M \right )> EI\left (S_m \right ) </math>),那么认为在该粗粒化基础上宏观动力学具有因果涌现特性。
+
如果通过有效的粗粒化使得宏观动力学的有效信息大于微观动力学的有效信息(也就是<math>CE>0</math>),那么我们认为在该粗粒化基础上宏观动力学具有因果涌现特性。
   −
在文献中,Hoel给出一个含有8个状态的马尔科夫链的状态转移矩阵例子,如图a所示。其中前7个状态之间等概率转移,最后一个状态是独立的,通过将前7个状态粗粒化成一个状态,可以得到右图确定的宏观系统,即系统的未来状态完全可以由当前状态决定。此时<math>EI(S_M\ )>EI(S_m\ ) </math>,系统发生了因果涌现。
+
在文献<ref name=":1"/>中,Hoel给出一个含有8个状态的马尔科夫链的状态转移矩阵例子,如图a所示。其中前7个状态之间等概率转移,最后一个状态是独立的,通过将前7个状态粗粒化成一个状态,可以得到右图所示确定的宏观系统,即系统的未来状态完全可以由当前状态决定。此时<math>EI(f_M\ )>EI(f_m\ ) </math>,系统发生了因果涌现。
    
[[文件:状态空间中的因果涌现.png|居中|500x500像素|状态空间上的因果涌现|替代=|缩略图]]
 
[[文件:状态空间中的因果涌现.png|居中|500x500像素|状态空间上的因果涌现|替代=|缩略图]]
   −
此外,论文中也包括一个[[布尔网络]]的例子,下图展示1个含有4个节点的布尔网络例子,每个节点有0和1两种状态,每个节点与其中两个节点相连,遵循相同的微观[[动力学机制]](a图),因此,一共含有十六个微观状态,可以得到一个<math>16\times16 </math>的状态转移矩阵(c图),然后给定分组方式,如将A和B进行合并,C和D进行合并(b图),同时给定微观状态到宏观状态的映射函数(d图),就可以得到新的宏观动力学机制,根据这个机制就可以得到宏观网络的状态转移矩阵(e图),通过对比发现宏观动力学的[[有效信息]]大于微观动力学的有效信息(<math>EI(S_M\ )>EI(S_m\ ) </math>),系统发生了因果涌现。
+
此外,论文<ref name=":1"/>中也包括一个[[布尔网络]]的例子,下图展示1个含有4个节点的布尔网络,每个节点有0和1两种状态,每个节点与其中两个节点相连,遵循相同的微观[[动力学机制]](a图),因此,一共含有十六个微观状态,可以得到一个<math>16\times16 </math>的状态转移矩阵(c图),然后给定分组方式,如将A和B进行合并,C和D进行合并(b图),同时给定微观状态到宏观状态的映射函数(d图),就可以得到新的宏观动力学机制,根据这个机制就可以得到宏观网络的状态转移矩阵(e图),通过对比发现宏观动力学的[[有效信息]]大于微观动力学的有效信息(<math>EI(S_M\ )>EI(S_m\ ) </math>),系统发生了因果涌现。
 
[[文件:含有4个节点的布尔网络.png|居中|700x700像素|离散布尔网络上的因果涌现|替代=含有4个节点布尔网络的因果涌现|缩略图]]
 
[[文件:含有4个节点的布尔网络.png|居中|700x700像素|离散布尔网络上的因果涌现|替代=含有4个节点布尔网络的因果涌现|缩略图]]
  
642

个编辑

导航菜单