更改

跳到导航 跳到搜索
第39行: 第39行:  
# 依赖神经网络的超参,如学习率、迭代次数等
 
# 依赖神经网络的超参,如学习率、迭代次数等
   −
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理. 通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型为微观网络合并成宏观节点时边权有不同的处理方式,包括四种处理方法,1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同节点,如图b,输入权重相加,输出权重取平均;2)待合并的节点之间没有连边时,待合并节点指向多个节点时,如图c,输入边权加和,出边的边权按比例加权求和;3)当节点间存在连边时,如图d,需要计算待合并节点的平稳分布,然后采用方法2的方式计算;4)更为复杂的情况,如图e,综合考虑方法2和方法3。
+
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型为微观网络合并成宏观节点时边权有不同的处理方式,包括四种处理方法,1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同节点,如图b,输入权重相加,输出权重取平均;2)待合并的节点之间没有连边时,待合并节点指向多个节点时,如图c,输入边权加和,出边的边权按比例加权求和;3)当节点间存在连边时,如图d,需要计算待合并节点的平稳分布,然后采用方法2的方式计算;4)更为复杂的情况,如图e,综合考虑方法2和方法3。
 
[[文件:Coarse.png|居中|缩略图]]
 
[[文件:Coarse.png|居中|缩略图]]
  
304

个编辑

导航菜单