更改

跳到导航 跳到搜索
第14行: 第14行:  
===机器学习方法===
 
===机器学习方法===
 
困难:
 
困难:
1. 初始化分组矩阵的选择,多次重复实验会得到不一样的结果
+
# 初始化分组矩阵的选择,多次重复实验会得到不一样的结果
2. 依赖神经网络的超参,如学习率、迭代次数等
+
# 依赖神经网络的超参,如学习率、迭代次数等
    
通过对节点进行分组,并构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理. 通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型为微观网络合并成宏观节点时边权有不同的处理方式,包括四种处理方法,1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同节点,如图b,输入权重相加,输出权重取平均;2)待合并的节点之间没有连边时,待合并节点指向多个节点时,如图c,输入边权加和,出边的边权按比例加权求和;3)当节点间存在连边时,如图d,需要计算待合并节点的平稳分布,然后采用方法2的方式计算;4)更为复杂的情况,如图e,综合考虑方法2和方法3。
 
通过对节点进行分组,并构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理. 通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型为微观网络合并成宏观节点时边权有不同的处理方式,包括四种处理方法,1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同节点,如图b,输入权重相加,输出权重取平均;2)待合并的节点之间没有连边时,待合并节点指向多个节点时,如图c,输入边权加和,出边的边权按比例加权求和;3)当节点间存在连边时,如图d,需要计算待合并节点的平稳分布,然后采用方法2的方式计算;4)更为复杂的情况,如图e,综合考虑方法2和方法3。
212

个编辑

导航菜单