更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
复杂网络中的因果涌现
(查看源代码)
2024年11月3日 (日) 12:13的版本
添加131字节
、
2024年11月3日 (星期日)
→梯度下降方法
第103行:
第103行:
====梯度下降方法====
====梯度下降方法====
由于EI是不可微的,所以梯度下降法不能直接适用。
由于EI是不可微的,所以梯度下降法不能直接适用。
−
+
输入:原始网络<math>A</math>;输出:宏观网络<math>B</math>以及对应的粗粒化方式<math>M</math>
−
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>
的概率,然后根据微观网络和分组矩阵构建宏观网络,优化目标是最大化宏观网络的有效信息EI,使用带动量的
[[梯度下降]]方法优化<math>M</math>。
+
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>
的概率,然后根据微观网络和分组矩阵构建宏观网络<math>B</math>,优化目标是最大化宏观网络的有效信息EI,使用带动量的
[[梯度下降]]方法优化<math>M</math>。
时间复杂度:<math>O(N^3)</math>
时间复杂度:<math>O(N^3)</math>
相信未来
2,464
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本