更改

跳到导航 跳到搜索
第103行: 第103行:  
====梯度下降方法====
 
====梯度下降方法====
 
由于EI是不可微的,所以梯度下降法不能直接适用。
 
由于EI是不可微的,所以梯度下降法不能直接适用。
 +
 
输入:原始网络<math>A</math>;输出:宏观网络<math>B</math>以及对应的粗粒化方式<math>M</math>
 
输入:原始网络<math>A</math>;输出:宏观网络<math>B</math>以及对应的粗粒化方式<math>M</math>
 +
 
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr⁡(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>的概率,然后根据微观网络和分组矩阵构建宏观网络<math>B</math>,优化目标是最大化宏观网络的有效信息EI,使用带动量的[[梯度下降]]方法优化<math>M</math>。
 
解决方法:针对一个含有<math>𝑛</math>个节点的网络,定义一个分组矩阵<math>M\in R^{n×k}</math>,其中<math>m_{iμ}=Pr⁡(v_i\in v_{\mu})</math>,表示微节点<math>v_i</math>属于宏观节点<math>v_{\mu}</math>的概率,然后根据微观网络和分组矩阵构建宏观网络<math>B</math>,优化目标是最大化宏观网络的有效信息EI,使用带动量的[[梯度下降]]方法优化<math>M</math>。
  
2,464

个编辑

导航菜单