更改

添加912字节 、 2024年6月9日 (星期日)
第777行: 第777行:     
<math>
 
<math>
x_{t+1}=Ax_t+\varepsilon_t, A\in\mathcal{R}^{n\times n}, \varepsilon_t\sim\mathcal{N}(0,\Sigma), {\rm rk}(A)={\rm rk}(\Sigma)=n
+
x_{t+1}=Ax_t+\varepsilon_t,
 
</math>
 
</math>
   −
的迭代系统,设干预空间大小为<math>L
+
的迭代系统,其中,[math]A\in\mathcal{R}^{n\times n}[/math]是尺度为n*n的满秩的方阵,代表线性迭代系统中的动力学系数, [math]\varepsilon_t\sim\mathcal{N}(0,\Sigma)[/math]为n维的高斯噪声,满足0均值,协方差为[math]\Sigma[/math]的正态分布,其中,协方差矩阵[math]\Sigma[/math]也是满秩的。
   −
</math>,对于单步的映射我们可以得到有效信息
+
为定义EI,设干预空间大小为<math>L</math>,对于单步的映射我们可以得到维度平均有效信息
    
<math>
 
<math>
第802行: 第802行:  
描述系统前一时刻状态已知的情况下,后一时刻的随机性,确定性越强,随机性越小,越容易对系统未来趋势进行预测;
 
描述系统前一时刻状态已知的情况下,后一时刻的随机性,确定性越强,随机性越小,越容易对系统未来趋势进行预测;
   −
简并性
+
简并性:
    
<math>
 
<math>
\mathcal{J}_2\equiv-H(E_D(x_{t+1}))=-\ln\left(|\det(A)|L^n\right)
+
\mathcal{J}_2\equiv-H(\tilde{x}_{t+1}))=-\ln\left(|\det(A)|L^n\right)
 
</math>
 
</math>
   −
描述后一时刻已知的情况下,对前一时刻的可追溯性,简并性越弱,系统越容易推断系统以往的演化路径。
+
描述后一时刻已知的情况下,对前一时刻的可追溯性,简并性越弱,系统越容易推断系统以往的演化路径。其中,[math]\tilde{x}_{t+1}[/math]是保持因果机制不变,经过干预以后得到的新的[math]x_{t+1}[/math]变量。
    
确定性越强,简并性越弱,有效信息则会越大,因果效应越强。
 
确定性越强,简并性越弱,有效信息则会越大,因果效应越强。
   −
宏观有效信息与微观有效信息做差之后就可以得到随即迭代系统的因果涌现。而微观、宏观的确定性和简并性分别做差就可以得到确定性、简并性涌现。
+
宏观有效信息与微观有效信息做差之后就可以得到随即迭代系统的因果涌现为:
 +
 
 +
<math>
 +
\Delta\mathcal{J}=\ln\frac{|\det(WAW^{\dagger})|^{1/N}}{|\det(A)|^{1/n}}-\ln\frac{|\det(W\Sigma W^T)|^{\frac{1}{2k}}}{|\det(\Sigma)|^{\frac{1}{2n}}}
 +
</math>
 +
 
 +
其中,[math]W[/math]为粗粒化矩阵,它的阶数为n*m,其中m为宏观状态空间的维度,它是从微观状态空间到宏观状态空间的线性投影映射。[math]W^{\dagger}[/math]为W的伪逆运算。式中第一项是由确定性引发的涌现,简称'''确定性涌现'''(Determinism Emergence),第二项为简并性引发的涌现,简称'''简并性涌现'''。更详细的内容参看[[线性迭代系统的EI]]。
    
==前馈神经网络==
 
==前馈神经网络==
712

个编辑