更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
复杂网络中的因果涌现
(查看源代码)
2024年5月5日 (日) 14:09的版本
添加4字节
、
2024年5月5日 (星期日)
→梯度下降方法
第39行:
第39行:
# 依赖神经网络的超参,如学习率、迭代次数等
# 依赖神经网络的超参,如学习率、迭代次数等
−
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模(HOMs),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型的微观节点合并成宏观节点时边权有不同的处理方式,包括四种处理方法:1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同输出节点时,如图b所示,需要将输入权重相加,输出权重取平均
<math>(W_{\mu}^{out}=\sum_{i \in S}W_i^{out}\frac{1}{N_S})</math>;2)待合并的节点之间没有连边且待合并节点指向多个节点时,如图c所示,需要将输入边权加和,出边的边权按比例加权求和<math>(W_{\mu|j}^{out}=\sum_{i \in S}W_i^{out}\frac{\sum_{j->i}w_{ji}}{\sum_{j->k\in S}w_{jk}})</math>;3)当待合并节点间存在连边时,如图d所示,需要计算待合并节点的平稳分布,然后采用方法2的方式计算<math>(W_{\mu|\pi}^{out}=\sum_{i \in S}W_i^{out}\frac{\pi_i}{\sum_{k\in S}\pi_k})</math>;4)更为复杂的情况,如图e所示,综合考虑方法2和方法3。
+
通过上面的网络粗粒化方法可以对节点进行分组,从而可以构建宏观网络。将微观节点合并成宏观节点时,对应宏观网络的转移概率矩阵也要进行相应的处理。通过使用高阶节点显式地对高阶依赖项建模([[HOMs]]),保证分组后的宏观网络和原始网络具有相同的随机游走动力学。具体来说,不同的类型的微观节点合并成宏观节点时边权有不同的处理方式,包括四种处理方法:1)待合并的节点之间没有连边,且输入节点都指向待合并节点,待合并节点都指向相同输出节点时,如图b所示,需要将输入权重相加,输出权重取平均
<math>(W_{\mu}^{out}=\sum_{i \in S}W_i^{out}\frac{1}{N_S})</math>;2)待合并的节点之间没有连边且待合并节点指向多个节点时,如图c所示,需要将输入边权加和,出边的边权按比例加权求和<math>(W_{\mu|j}^{out}=\sum_{i \in S}W_i^{out}\frac{\sum_{j->i}w_{ji}}{\sum_{j->k\in S}w_{jk}})</math>;3)当待合并节点间存在连边时,如图d所示,需要计算待合并节点的平稳分布,然后采用方法2的方式计算<math>(W_{\mu|\pi}^{out}=\sum_{i \in S}W_i^{out}\frac{\pi_i}{\sum_{k\in S}\pi_k})</math>;4)更为复杂的情况,如图e所示,综合考虑方法2和方法3。
[[文件:Coarse.png|居中|500x360像素|边权合并方式|缩略图]]
[[文件:Coarse.png|居中|500x360像素|边权合并方式|缩略图]]
相信未来
2,187
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本