更改

跳到导航 跳到搜索
第63行: 第63行:  
# 依赖神经网络的超参,如学习率、迭代次数等
 
# 依赖神经网络的超参,如学习率、迭代次数等
   −
=== 合并宏节点方法 ===
+
=== 宏节点合并方法 ===
 
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模([[HOMs]]),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。
 
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模([[HOMs]]),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。
  
1,177

个编辑

导航菜单