更改

跳到导航 跳到搜索
第39行: 第39行:  
# 依赖神经网络的超参,如学习率、迭代次数等
 
# 依赖神经网络的超参,如学习率、迭代次数等
   −
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型的微观节点合并成宏观节点时边权有不同的处理方式,包括四种处理方法:1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同输出节点时,如图b所示,需要将输入权重相加,输出权重取平均<math>(W_{\mu}^{out}=\sum_{i \in S}W_i^{out}\frac{1}{N_S})</math>;2)待合并的节点之间没有连边且待合并节点指向多个节点时,如图c所示,需要将输入边权加和,出边的边权按比例加权求和<math>(W_{\mu|j}^{out}=\sum_{i \in S}W_i^{out}\frac{\sum_{j->i}w_{ji}}{\sum_{j->k\in S}w_{jk}})</math>;3)当待合并节点间存在连边时,如图d所示,需要计算待合并节点的平稳分布,然后采用方法2的方式计算<math>(W_{\mu|\pi}^{out}=\sum_{i \in S}W_i^{out}\frac{\pi_i}{\sum_{k\in S}\pi_k})</math>;4)更为复杂的情况,如图e所示,综合考虑方法2和方法3。
+
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模([[HOMs]]),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型的微观节点合并成宏观节点时边权有不同的处理方式,包括四种处理方法:1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同输出节点时,如图b所示,需要将输入权重相加,输出权重取平均<math>(W_{\mu}^{out}=\sum_{i \in S}W_i^{out}\frac{1}{N_S})</math>;2)待合并的节点之间没有连边且待合并节点指向多个节点时,如图c所示,需要将输入边权加和,出边的边权按比例加权求和<math>(W_{\mu|j}^{out}=\sum_{i \in S}W_i^{out}\frac{\sum_{j->i}w_{ji}}{\sum_{j->k\in S}w_{jk}})</math>;3)当待合并节点间存在连边时,如图d所示,需要计算待合并节点的平稳分布,然后采用方法2的方式计算<math>(W_{\mu|\pi}^{out}=\sum_{i \in S}W_i^{out}\frac{\pi_i}{\sum_{k\in S}\pi_k})</math>;4)更为复杂的情况,如图e所示,综合考虑方法2和方法3。
 
[[文件:Coarse.png|居中|500x360像素|边权合并方式|缩略图]]
 
[[文件:Coarse.png|居中|500x360像素|边权合并方式|缩略图]]
  
2,187

个编辑

导航菜单