更改

第19行: 第19行:  
1)节点输出的不确定性可通过节点出权的香农熵定义,即<math>H(W_i^{out})</math>,因此整个网络的不确定性可通过<math><H(W_i^{out})></math>得到;
 
1)节点输出的不确定性可通过节点出权的香农熵定义,即<math>H(W_i^{out})</math>,因此整个网络的不确定性可通过<math><H(W_i^{out})></math>得到;
   −
2)基于网络的出边权重分布计算,<math>H(<W_i^{out}>)</math>反映了确定性如何在网络中分布。通过这2项就可得到复杂网络中的有效信息定义,<math>{J}=\frac{1}{N}\sum_{i=1}^ND_{KL}[W_i^{out}||<W_i^{out}>]=\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}\log_2(w_{ij})-\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}log_2(W_j)=H(<W_i^{out}>)-<H(W_i^{out})></math>。其中,<math>w_{ij}</math>是节点i和j之间的转移概率,<math>W_j=\frac{1}{N}\sum_{i=1}^N w_{ij}</math>,表示节点的平均分布。 同样进一步,有效信息可以分解为确定性和简并性。
+
2)基于网络的出边权重分布计算,<math>H(<W_i^{out}>)</math>反映了确定性如何在网络中分布。通过这2项就可得到复杂网络中的有效信息定义:
 +
<math>
 +
\begin{aligned}
 +
{J} &=\frac{1}{N}\sum_{i=1}^ND_{KL}[W_i^{out}||<W_i^{out}>]=\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}\log_2(w_{ij})-\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}log_2(W_j)=H(<W_i^{out}>)-<H(W_i^{out})>
 +
\end{aligned}
 +
</math>。其中,<math>w_{ij}</math>是节点i和j之间的转移概率,<math>W_j=\frac{1}{N}\sum_{i=1}^N w_{ij}</math>,表示节点的平均分布。 同样进一步,有效信息可以分解为确定性和简并性。
 +
<math>
 +
\begin{aligned}
 +
EI(S) &= I(X_t,X_{t+1}|do(X_t)\sim U(\mathcal{X}))=I(\tilde{X}_t,\tilde{X}_{t+1}) \\
 +
&= \sum^N_{i=1}\sum^N_{j=1}Pr(\tilde{X}_t=i,\tilde{X}_{t+1}=j)\log \frac{Pr(\tilde{X}_t=i,\tilde{X}_{t+1}=j)}{Pr(\tilde{X}_t=i)Pr(\tilde{X}_{t+1}=j)}\\
 +
&= \frac{1}{N}\sum^N_{i=1}\sum^N_{j=1}p_{ij}\log\frac{N\cdot p_{ij}}{\sum_{k=1}^N  p_{kj}}
 +
\end{aligned}
 +
</math>
    
==粗粒化复杂网络==  
 
==粗粒化复杂网络==  
1,177

个编辑