有效信息

来自集智百科 - 复杂系统|人工智能|复杂科学|复杂网络|自组织
Jake讨论 | 贡献2024年5月12日 (日) 18:24的版本
跳到导航 跳到搜索

历史渊源

有效信息(effective informaion,EI)这个概念最早由Giulio Tononi等人在2003年提出,作为整合信息论中的一个关键指标。当一个系统各个组分之间具有很强的因果关联的时候,可以说这个系统具备很高的整合程度,而有效信息:EI便是用来度量这种因果关联程度的关键指标。

后来,到了2013年,Tononi的学生Erik Hoel等人将有效信息这个概念进一步挖掘出来,发现可以用它来很好地定量刻画涌现,于是提出了因果涌现理论。在这个理论中,Hoel使用了Judea Pearldo算子来改造一般的互信息指标,这使得EI本质上与互信息不同。互信息度量的是相关性,而有效信息因为引入了do算子,从而可以度量因果性。在这一文章中,作者们同时提出了归一化的有效信息指标Eff。

然而,传统的EI主要被用于具有离散状态的马尔科夫链上。为了能过扩充到一般的实数域,P. Chvykov和E. Hoel于2020年合作提出了因果几何理论,将EI的定义扩充到了具备连续状态变量的函数映射上,并通过结合信息几何理论,探讨了EI的一种微扰形式,并与Fisher信息指标进行了比较,提出了因果几何的概念。然而,这一连续变量的EI计算方法需要假设方程中的正态分布随机变量的方差是无限小的,这显然是一种特殊情况。

到了2022年,为了解决一般前馈神经网络的EI计算问题,刘凯威张江又将因果几何中的连续变量的EI计算方法的方差限制去掉,探讨了EI的更一般形式。然而,这种扩充仍然存在着一个缺陷,由于实数域上变量的均匀分布严格讲是定义在无穷大空间上的,为了避免遭遇无穷大,EI的计算中就会带着一个参数[math]L[/math],表示均匀分布的区间范围。为了避免这个缺陷,也为了在不同粗粒化程度上比较EI,作者们便提出了维度平均EI的概念,并发现由维度平均EI定义的因果涌现度量是一个仅与神经网络雅可比矩阵的行列式对数值期望与两个比较维度的随机变量方差有关的量,而与其它参量,如[math]L[/math]无关,而且,维度平均EI也可以看作是一种归一化的EI,即Eff。

Do形式及解释

相比于传统信息论,EI最大的特色在于引入最大熵分布,度量在输入变量被设定为最大熵分布后产生的影响。这实际上是对输入变量做了一个干预操作。Judea Pearl在2000年左右对因果的界定有详细的阐述。他提出了因果的三层阶梯,关联-干预-反事实。直接对观测数据估测互信息,便是在度量关联程度;而如果我们能对变量做干预操作,即设定变量为某个值或服从某个分布,便上升到了干预的层级;反事实则是设想如果某变量不是当前取值,那么其他变量会是什么样。阶梯层级越高,因果性就越强。

Erik Hoel意识到了这一点,在他提出的因果涌现框架中使用了EI作为一个量化指标。其中他强调EI是一种因果度量,量化的是因果效应的强弱。而之所以要把输入变量干预为最大熵分布,其实就是要去除数据分布本身带来的影响,对输入变量的分布不引入任何先验假设,平等对待输入变量的每个状态产生的影响。


Markovian matrix 形式(TPM)

Erik Hoel进一步将EI应用在一个随机过程的背景下,输入变量为[math]\displaystyle{ X_t }[/math],输出变量为[math]\displaystyle{ X_{t+1} }[/math],在将[math]\displaystyle{ X_t }[/math]干预为最大熵分布时,计算二者之间的互信息。在离散情况下,最大熵分布即为均匀分布。因为这里的EI计算只关乎两个时刻,在干预的情况下更早的历史变量不起作用,所以Hoel假定该过程的动力学就是一个满足马尔科夫性的概率转移矩阵。下面给出几个马尔科夫概率转移矩阵的示例。

马尔科夫矩阵中每个元素都是一个条件概率,满足行归一化。将输入变量概率分布和矩阵直接相乘便得到输出变量的概率分布。因为有干预,所以EI的大小只和转移矩阵本身有关。已知马尔科夫概率转移矩阵,我们可以用下式计算EI。

[math]\displaystyle{ EI = \frac{1}{N}\sum^N_{i=1}\sum^N_{j=1}p_{ij}\log\frac{p_{ij}}{\overline{p}_j} = \frac{1}{N}\sum^N_{i=1}D_{KL}(P_{i.}||\overline{P}) }[/math]

其中N为状态数,[math]\displaystyle{ p_{ij} }[/math]为第i个状态转移到第j个状态的转移概率。将矩阵每列求均值,可得到平均转移向量[math]\displaystyle{ \overline{P} }[/math],每个分量便是[math]\displaystyle{ \overline{p}_j }[/math]。我们也可以用KL散度的方式来表达:EI是转移矩阵每个行转移向量与平均转移向量的KL散度的均值。

归一化

显然,EI的大小和状态空间大小有关,我们需要做一个归一化,得到和系统尺寸无关的一个量化指标。根据Tononi等人的工作,要用最大熵分布下的熵值来做分母,那么在马尔科夫转移矩阵的背景下,该值便等于[math]\displaystyle{ \log_2N }[/math]。进一步定义归一化指标有效性(effectiveness)为[math]\displaystyle{ eff=\frac{EI}{\log_2N} }[/math]

后来,在神经信息压缩器(Neural information squeezer, NIS)提出时,构建了直接对状态空间维度求平均的指标dEI。[math]\displaystyle{ dEI=\frac{EI}{N} }[/math],这同样可以消除系统大小带来的影响。在离散的系统中,dEI和有效性实际上是等价的。

因果涌现(CE)

有了有效信息这一度量指标后,因果涌现的框架可以被呈现出来了。对于一个系统,观察者可以建立多尺度视角去观测,区分出微观和宏观。收集到的微观数据可以直接反映微观动力学,在经过粗粒化映射(coarse-graining)后,由微观变量得到对应的宏观变量,也自然会有相应的宏观动力学。对两个动力学分别可以计算EI,如果宏观EI大于微观EI,认为有因果涌现发生。

CE.png

这里有一个新的指标直接度量因果涌现的程度:

[math]\displaystyle{ CE = EI(TPM_M) - EI(TPM_m) }[/math]

也可以计算归一化后的CE:

[math]\displaystyle{ dCE(TPM_M,TPM_m) = \frac{EI(TPM_M)}{n_M} - \frac{EI(TPM_m)}{n_m} }[/math]

确定性和简并性

考察归一化后的eff,我们可以将其拆成两部分,分别对应确定性(determinism)和简并性(degeneracy)。

[math]\displaystyle{ Eff = Determinism - Degeneracy }[/math]

我们可以在给定TPM的情况下,写出它们的表达式。

[math]\displaystyle{ Determinism = \frac{1}{\log_2N}\sum_{i,j}TPM(i,j)\log_2{(N\times TPM(i,j))} \\ Degeneracy = \frac{1}{\log_2N}\sum_{i,j}TPM(i,j)\log_2{(\sum_k TPM(k,j))} }[/math]

关键在于理解它们的物理含义。确定性指的是,已知当前时刻状态概率分布,对未来可能状态的判断有多大的把握;而简并性指的是,已知当前的状态,追溯历史,我们能有多大确定性做出判断。如果有状态在动力学过程中发生简并,我们回溯历史时能运用的信息就会变少。当一个系统背后的动力学确定性高,同时简并性低时,说明这是一个具有明显因果效应的动力学。这就是EI本身的物理含义。

0.5px

上图展示了几种TPM,其中(a)是确定性高,简并性低,所以整体eff比较高。(b)则是确定性和简并性都比较高,所以eff是0。(c)相比于(a)确定性更低,(d)也是确定性和简并性都较高导致eff较低,它们都可以通过同一种粗粒化策略(将前4个状态合并为一个状态)来得到(e)。此时(e)确定性很高,无简并性,所以(e)的eff比(c)(d)要高。

连续系统的EI

见其他词条

整合信息论中的EI

整合程度(或者叫整合信息能力)[math]\displaystyle{ \Phi }[/math],可以被定义为系统一个子集两个互补部分之间可交换的有效信息最小值。假如系统是X,S是X的一个子集,它被划分为两个部分,分别是A和B。A、B之间以及它们跟X中其余的部分都存在着相互作用和因果关系。

整合信息论中的划分

这时,我们可以度量这些因果关系的强弱。首先,我们来计算从A到B的有效信息,即让A服从最大熵分布时,度量A和B之间的互信息。

[math]\displaystyle{ EI(A\rightarrow B) = MI(A^{H^{max}}: B) }[/math]

如果A的不同状态会导致B有很不一样的变化,这个EI值会很高;反之,如果无论A怎么变,B都受到很少的影响,那么EI就会很低。显然,这种度量是有方向的,A对B的EI和B对A的EI可以很不同。我们可以把这两个方向的EI加在一起,得到S在某一个划分下的EI大小。

[math]\displaystyle{ EI(A\leftrightarrow B) = EI(A\rightarrow B) + EI(B\rightarrow A) }[/math]

遍历各种划分,如果存在某一个划分,使得EI为0,说明这个S可以被看做是两个因果独立的部分,所以整合程度也应该是0。从这种特殊例子中我们可以看出,我们应该关注所有划分中有效信息最小的那个。当然,不同划分会导致A和B的状态空间就不一样,所以应该做一个归一化处理,即除以A和B最大熵值中较小的那一个。于是,我们可以有一个最小信息划分(minimum information bipartition,MIB)。整合程度[math]\displaystyle{ \Phi }[/math]定义如下:

[math]\displaystyle{ \Phi(S) = EI(MIB(S)) }[/math]

代码

见其他任务

参考文献

Hoel, E. P., Albantakis, L., & Tononi, G. (2013). Quantifying causal emergence shows that macro can beat micro. Proceedings of the National Academy of Sciences, 110(49), 19790–19795. https://doi.org/10.1073/pnas.1314922110

Tononi, G., & Sporns, O. (2003). Measuring information integration. BMC Neuroscience.

Yuan, B., Zhang, J., Lyu, A., Wu, J., Wang, Z., Yang, M., Liu, K., Mou, M., & Cui, P. (2024). Emergence and Causality in Complex Systems: A Survey of Causal Emergence and Related Quantitative Studies. Entropy, 26(2), 108. https://doi.org/10.3390/e26020108