更改

第50行: 第50行:     
宏观态同理。
 
宏观态同理。
 +
 +
计算因果涌现我们只需要在宏观微观分别计算维度平均后的有效信息并用宏观的有效信息与微观作差,即可计算出因果涌现的度量
 +
 +
<math>
 +
\Delta\mathcal{J}=\mathcal{J}_M(f_M,\Sigma_M)-\mathcal{J}_m(f,\Sigma)
 +
</math>
 +
 +
由于一般情况下有效信息与因果涌现受映射<math>f:\mathcal{R}^n\to\mathcal{R}^n</math>影响较大,而映射自身会受状态本身以及其所处时间影响,故很多性质我们很难直接研究。但如果是线性随机迭代系统,映射函数及其导函数相对固定,我们就可以从中挖掘更多的信息。
    
== 线性随机迭代系统 ==
 
== 线性随机迭代系统 ==
第91行: 第99行:  
两项都是随机迭代系统的有效信息。
 
两项都是随机迭代系统的有效信息。
   −
=== 确定性和简并性 ===
  −
随机迭代系统的因果涌现还可以分解成两项,确定性涌现
  −
  −
<math>
  −
\Delta\mathcal{J}_1=\ln\frac{|\det(\Sigma)|^\frac{1}{2n}}{|\det(W\Sigma W^{T})|^\frac{1}{2k}}
  −
</math>
  −
  −
和简并性涌现
  −
  −
<math>
  −
\Delta\mathcal{J}_2=\ln\frac{|\det(A)|^\frac{1}{n}}{|\det(WAW^\dagger)|^\frac{1}{k}}
  −
</math>
  −
  −
两者分别是微观态、宏观态的确定性、简并性做差产生。粗粒化造成的确定性涌现越大、简并性涌现越小、因果涌现也会越大。
  −
  −
=== 因果涌现最大化 ===
  −
为了找到不依赖粗粒化策略的因果涌现,我们可以通过优化粗粒化策略得到因果涌现的最优解
  −
  −
<math>
  −
\Delta\mathcal{J}^{*}=\frac{1}{k}\sum_{i=1}^{k}\ln\displaystyle|\lambda_i|-\frac{1}{n}\sum_{i=1}^{n}\ln\displaystyle|\lambda_i|+\eta
  −
</math>
  −
  −
其中<math>
  −
|\lambda_1|\geq|\lambda_2|\geq\dots\geq|\lambda_n|\geq 0
  −
</math>是参数矩<math>
  −
A\in\mathcal{R}^{n\times n}, {\rm rk}(A)={\rm rk},
  −
</math>的特征值,<math>
  −
\eta
  −
</math>是粗粒化造成的信息熵损失<math>
  −
\frac{1}{n}H(p(x_{t+1})|p(x_t))-\frac{1}{k}H(p(y_{t+1}|y_t))
  −
</math>的下界。
  −
  −
== 随机迭代系统的有效信息 ==
   
而因果涌现由宏观态和微观态的有效信息作差得到。对于形如
 
而因果涌现由宏观态和微观态的有效信息作差得到。对于形如
   第162行: 第137行:  
宏观有效信息与微观有效信息做差之后就可以得到随即迭代系统的因果涌现。而微观、宏观的确定性和简并性分别做差就可以得到确定性、简并性涌现。
 
宏观有效信息与微观有效信息做差之后就可以得到随即迭代系统的因果涌现。而微观、宏观的确定性和简并性分别做差就可以得到确定性、简并性涌现。
   −
== 因果涌现的最优化 ==
+
=== 确定性和简并性 ===
 +
随机迭代系统的因果涌现还可以分解成两项,确定性涌现
 +
 
 +
<math>
 +
\Delta\mathcal{J}_1=\ln\frac{|\det(\Sigma)|^\frac{1}{2n}}{|\det(W\Sigma W^{T})|^\frac{1}{2k}}
 +
</math>
 +
 
 +
和简并性涌现
 +
 
 +
<math>
 +
\Delta\mathcal{J}_2=\ln\frac{|\det(A)|^\frac{1}{n}}{|\det(WAW^\dagger)|^\frac{1}{k}}
 +
</math>
 +
 
 +
两者分别是微观态、宏观态的确定性、简并性做差产生。粗粒化造成的确定性涌现越大、简并性涌现越小、因果涌现也会越大。
 +
 
 +
=== 因果涌现最大化 ===
 +
为了找到不依赖粗粒化策略的因果涌现,我们可以通过优化粗粒化策略得到因果涌现的最优解
 +
 
 +
<math>
 +
\Delta\mathcal{J}^{*}=\frac{1}{k}\sum_{i=1}^{k}\ln\displaystyle|\lambda_i|-\frac{1}{n}\sum_{i=1}^{n}\ln\displaystyle|\lambda_i|+\eta
 +
</math>
 +
 
 +
其中<math>
 +
|\lambda_1|\geq|\lambda_2|\geq\dots\geq|\lambda_n|\geq 0
 +
</math>是参数矩<math>
 +
A\in\mathcal{R}^{n\times n}, {\rm rk}(A)={\rm rk},
 +
</math>的特征值,<math>
 +
\eta
 +
</math>是粗粒化造成的信息熵损失<math>
 +
\frac{1}{n}H(p(x_{t+1})|p(x_t))-\frac{1}{k}H(p(y_{t+1}|y_t))
 +
</math>的下界。
 +
 
 +
== 线性随机迭代系统因果涌现的最优化 ==
 
对于因果涌现,我们可以对确定性和简并性分别最优化,确定性涌现越大,简并性涌现越小,则因果涌现会最大
 
对于因果涌现,我们可以对确定性和简并性分别最优化,确定性涌现越大,简并性涌现越小,则因果涌现会最大
  
225

个编辑