更改
跳到导航
跳到搜索
←上一编辑
下一编辑→
复杂网络中的因果涌现
(查看源代码)
2024年4月25日 (四) 17:36的版本
添加13字节
、
2024年4月25日 (星期四)
→机器学习方法
第31行:
第31行:
由于EI是不可微的,所以梯度下降法不能直接适用。
由于EI是不可微的,所以梯度下降法不能直接适用。
−
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>
的概率,然后根据微观网络和分组矩阵构建宏观网络,优化目标是最大化宏观网络的有效信息EI,使用带动量的梯度下降方法优化M。
+
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>
的概率,然后根据微观网络和分组矩阵构建宏观网络,优化目标是最大化宏观网络的有效信息EI,使用带动量的梯度下降方法优化<math>M</math>。
时间复杂度:<math>O(N^3)</math>
时间复杂度:<math>O(N^3)</math>
相信未来
1,271
个编辑
导航菜单
个人工具
登录
名字空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
集智百科
集智主页
集智斑图
集智学园
最近更改
所有页面
帮助
工具
特殊页面
可打印版本