更改

跳到导航 跳到搜索
第7行: 第7行:     
== 简介 ==
 
== 简介 ==
为了克服先前研究中发现的局限性,随机迭代系统的因果涌现
+
为了克服先前研究中发现的局限性,随机迭代系统
 +
 
 +
<math>
 +
x_{t+1}=Ax_t+\varepsilon_t, A\in\mathcal{R}^{n\times n}, \varepsilon_t\sim\mathcal{N}(0,\Sigma), ${\rm rk}(A)={\rm rk}(\Sigma)=n
 +
</math>
 +
 
 +
通过粗粒化策略
 +
 
 +
<math>
 +
y_t=Wx_t, W\in R^{k\times n},k<n
 +
</math>
 +
 
 +
得到宏观动力学
 +
 
 +
<math>
 +
y_{t+1}=A_M y_t+\varepsilon_{M,t}, $A_M=WAW^\dagger\in \mathcal{R}^{k\times k}$, $\varepsilon_{M,t}\sim \mathcal{N}(0,\Sigma_M), \Sigma_M=W\Sigma W^{T}$. $W^\dagger$
 +
</math>
 +
 
 +
后的因果涌现
    
<math>
 
<math>
第39行: 第57行:  
</math>
 
</math>
   −
两者分别是微观态、宏观态的确定性、简并性做差产生。
+
两者分别是微观态、宏观态的确定性、简并性做差产生。粗粒化造成的确定性涌现越大、简并性涌现越小、因果涌现也会越大。
 +
 
 +
为了找到不依赖粗粒化策略的因果涌现,我们可以通过优化粗粒化策略得到因果涌现的最优解
 +
 
 +
<math>
 +
\Delta\mathcal{J}^{*}=\frac{1}{k}\sum_{i=1}^{k}\ln\displaystyle|\lambda_i|-\frac{1}{n}\sum_{i=1}^{n}\ln\displaystyle|\lambda_i|+\eta
 +
</math>
 +
 
 +
其中<math>
 +
|\lambda_1|\geq|\lambda_2|\geq\dots\geq|\lambda_n|\geq 0
 +
</math>是参数矩<math>
 +
A\in\mathcal{R}^{n\times n}, ${\rm rk}(A)={\rm rk},
 +
</math>的特征值,<math>
 +
\eta
 +
</math>是粗粒化造成的信息熵损失<math>
 +
\frac{1}{n}H(p(x_{t+1})|p(x_t))-\frac{1}{k}H(p(y_{t+1}|y_t))
 +
</math>的下界.
    
== 随机迭代系统的有效信息 ==
 
== 随机迭代系统的有效信息 ==
225

个编辑

导航菜单