更改

跳到导航 跳到搜索
第19行: 第19行:  
1)节点输出的不确定性可通过节点出权的香农熵定义,即<math>H(W_i^{out})</math>,因此整个网络的不确定性可通过<math><H(W_i^{out})></math>得到;
 
1)节点输出的不确定性可通过节点出权的香农熵定义,即<math>H(W_i^{out})</math>,因此整个网络的不确定性可通过<math><H(W_i^{out})></math>得到;
   −
2)基于网络的出边权重分布计算,<math>H(<W_i^{out}>)</math>反映了确定性如何在网络中分布。通过这2项就可得到复杂网络中的有效信息定义,<math>{J}=\frac{1}{N}\sum_{i=1}^ND_{KL}[W_i^{out}||<W_i^{out}>]=\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}\log_2(w_{ij})-\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}log_2(W_j)=H(<W_i^{out}>)-<H(W_i^{out})></math>。其中,<math>w_{ij}</math>是节点i和j之间的转移概率,<math>W_j=\frac{1}{N}\sum_{i=1}^N w_{ij}</math>同样进一步,有效信息可以分解为确定性和简并性。
+
2)基于网络的出边权重分布计算,<math>H(<W_i^{out}>)</math>反映了确定性如何在网络中分布。通过这2项就可得到复杂网络中的有效信息定义,<math>{J}=\frac{1}{N}\sum_{i=1}^ND_{KL}[W_i^{out}||<W_i^{out}>]=\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}\log_2(w_{ij})-\frac{1}{N}\sum_{i=1}^N\sum_{j=1}^Nw_{ij}log_2(W_j)=H(<W_i^{out}>)-<H(W_i^{out})></math>。其中,<math>w_{ij}</math>是节点i和j之间的转移概率,<math>W_j=\frac{1}{N}\sum_{i=1}^N w_{ij}</math>,表示节点的平均分布。 同样进一步,有效信息可以分解为确定性和简并性。
    
==粗粒化复杂网络==  
 
==粗粒化复杂网络==  
1,177

个编辑

导航菜单